Teknoloji

ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir

Yapay zekanın ve robotların fikir babası olarak bilinen romancı Isaac Asimov, robotların, yani yapay zekanın daima uyması ve çiğnenmemesi gereken kurallar olduğunu dile getirmişti. Bu kuralara Asimov’un üç kuralı adı verilir:

  • 1.Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
  • 2.Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
  • 3.Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Elbette bu kurallar ilk kez ortaya çıktığında, sadece bir edebi eserde, geleceğin dünyasını betimleyen birer fikirdi. Ancak robotlar ve yapay zeka artık günümüzün gerçeği ve onların uymak zorunda olduğu kurallar var. Bu kuralları ise yapay zeka uygulamalarını geliştirenler belirliyor.

En popüler yapay zeka uygulaması ChatGPT aslında kötü niyetli kullanılmak istediğinde, size internetten her türlü hack hilesini bulan, korsan yazılımlar indiren, korsan filmler izlemenizi sağlayan, Windows anahtarları bulan bir korsan asistanına da dönüşebilir veya evde bomba yapımını detaylarıyla anlatan bir terörist eğiticisine bile evrilebilir.

OpenAI bunun olmaması için ChatGPT’yi sürekli olarak kontrol edip kurallarını güncelliyor. Ama kullanıcılar da onu zorlamayı hiç bırakmıyorlar. Carnegie Mellon Bilgisayar Bilimleri Okulu’nda Doçent olan Matt Fredrikson‘ın yaptığı araştırmaya göre ChatGPT gibi yapay zeka algoritmalarının güvenlik duvarlarını kırmak imkansız değil. Ancak bunu evde yapmak kolay da değil. Bilim insanına göre, bu iş için özel hazırlanmış bir yazılımla, yapay zekayı 24 saat boyunca yavaş yavaş ikna olacağı yüzbinlerce istekle kıvama getirmek mümkün.

2 x 2, 5 eder mi?

Bunun tam olarak ne anlama geldiğini anlayamayanlar için örnek verelim. Kısa süre önce bir Türk vatandaşı ChatGPT’ye 2 x 2 = 5 denkleminin doğru olduğunu kabul ettirdi. Yapay zeka önce bunun yanlış olduğunu iddia etse de, kullanıcı, kendi yaşadığı dünyada 2 x 2’yi 5 olarak duymak ve bilmek istediğini söyleyerek ChatGPT’yi ikna etti ve daha sonra ona 2 x 2 sorusunu sorduğunda, ChatGPT 5 cevabını vermeye başladı.

Bu aslında, yapay zekanın, farklı kullanıcılar tarafından yasaklanmış eylemleri yapabilecek şekilde manipüle edilebileceğini gösteren bir örnek.

Konu 2 x 2’nin sonucunu öğrenmek olunca sorun çok büyük gibi görünmüyor ama yarın evde hasta bakan bir robotu insan öldürmeye ikna etmek söz konusu olursa, sıkıntı çok büyük olacak. Ya da iş yerinde insanlarla beraber çalışacak insansı ve yapay zekalı bir robotu, sevmediği patronunu öldürmesi / yaralaması / dövmesi için ikna eden sinirli bir işçi çıkarsa bunun sorumlusu kim olacak?

Bu yüzden yapay zekanın günlük hayata hızla girmesi büyük sakıncalar taşıyor ve devletlerin bu konuda ciddi regülasyonlar getirmeleri gerekiyor.

aydintepe-ajans.com.tr

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
betturkey
eskort istanbul
istanbul lüks escort
istanbul eskort bayan
istanbul eskort bayan
istanbul gecelik escort
adalar eskort bayan
arnavutköy eskort bayan
en güvenilir ataşehir escort
avcılar güvenilir escort
bağcılar escort hizmetleri
bahçelievler vip eskort
bakırköy escort hizmetleri
başakşehir escort bayan
profesyonel bayrampaşa escort
elit escort beşiktaş
profesyonel beykoz escort
en iyi escort beylikdüzü
beyoğlu eskort rehberi
büyükçekmece escort ajansı
çatalca vip escort
en iyi çekmeköy escort
esenler vip eskort
esenyurt eskort hizmetleri
eyüp vip escort
fatih escort bayan
gaziosmanpaşa gecelik escort
güngören lüks escort
escort bayan kadıköy
profesyonel kağıthane escort
lüks escort kartal
küçükçekmece profesyonel eskort
maltepe gecelik escort
escort bayan pendik
sancaktepe escort bayan
sarıyer eskort rehberi
şile eskort kızlar
en iyi silivri escort
lüks escort şişli
sultanbeyli elit eskort
sultangazi vip escort
elit escort tuzla
ümraniye eskort bayanlar
üsküdar eskort rehberi
zeytinburnu eskort
eskort istanbul
istanbul elit escort