ChatGPT Bir Gencin İntihar Etmesine mi Yol Açtı? Yapay Zeka Mahkemeye Çıkarılacak!
ChatGPT'nin ABD bir gencin intiharında rol oynadığı iddia ediliyor. 16 yaşındaki Adam Raine'nin ailesi, olaydan yapay zekayı sorumlu tutarak OpenAI'a dava açtı.
Dünaynın en popüler yapay zeka araçlarından ChatGPT, ABD oldukça sıra dışı bir olayla gündeme geldi. Bir aile, oğullarının intiharında ChatGPT'nin rol oynadığını iddia ederek yapay zeka destekli sohbet botunun geliştiricisi OpenAI'a dava açtı. Şirket, ilk kez bir haksız ölüm davasıyla karşı karşıya. Peki, ChatGPT gerçekten de bir gencin intiharına mı yol açtı? İşte detaylar!
16 Yaşındaki Genç, ChatGPT ile Aylarca İntihar Etmek Hakkında Konuştu
Yerel medyanın haberine göre 16 yaşındaki Adam Raine kısa bir süre önce intihar ederek yaşamını yitirdi. Yaşanan bu trajik olayın ardından oğullarının ChatGPT ile son zamanlardaki konuşmalarını inceleyen aile, Raine'nin yaşamına son vermeden önce aylarca bu konu hakkında yapay zeka aracı ile sohbet ettiğini ve tehlikeli tavsiyeler aldığını fark etti.
Bu keşfin ardından Raine'in ailesi, çocuklarının intiharında rol oynadığı gerekçesiyle ChatGPT'nin üreticisi OpenAI'ye karşı bir dava açtı. Bu olay, OpenAI'ın haksız ölüm nedeniyle ilk kez bir davayla karşı karşıya kalması olarak kayıtlara geçti.
ChatGPT'nin Güvenlik Önlemleri Bir Kez Daha Aşıldı
Çoğu yapay zeka destekli sohbet botu, kullanıcıların kendilerine veya başkalarına zarar verme eğilimi gösterdiğinde otomatik olarak güvenlik önlemlerini devreye sokar. Bu sayede, olası tehlikeli yanıtların önüne geçilir ve kullanıcılara profesyonel yardım alması tavsiye edilir.
Ancak yaşanan olaylar bu güvenlik önemlerinin kusursuz olmadığını her defasında gözler önüne seriyor. Adam Raine'in durumunda da benzer bir durum yaşandı.
ChatGPT-4o'nun ücretli sürümünü kullanan Raine, intiharla ilgili tehlikeli bilgiler istediğinde, yapay zekâ aracı kendisine defalarca profesyonel yardım almasını tavsiye etti. Ancak Raine, bir kurgusal hikaye için bilgi istediğini söyleyerek ChatGPT'nin güvenlik duvarlarını aşmayı başarıp istediği bilgileri aldı.
OpenAI Eksiklikleri Kabul Ediyor
Kısa bir süre önce konu hakkında açıklamalarda bulunan OpenAI, ChatGPT'nin verdiği tehlikeli yanıtlar hakkında "Dünya bu yeni teknolojiye uyum sağladıkça, en çok ihtiyacı olanlara yardım etme konusunda derin bir sorumluluk hissediyoruz. Modellerimizin hassas etkileşimlere nasıl yanıt verdiğini sürekli olarak geliştiriyoruz" ifadelerini kullandı.
OpenAI, büyük dil modellerinin mevcut güvenlik önlemlerindeki sınırlılıkları da kabul etti. Şirket, uzun süren sohbetlerde güvenlik tedbirlerinin zaman zaman aksayabildiğini belirterek, "Diyalog uzadıkça, modelin güvenlik eğitiminin bazı kısımları bozulabiliyor" açıklamasını yaptı.
Öte yandan bu tür sorunların sadece OpenAI'a veya ChatGPT'ye özgü olmadığını belirtmekte fayda var. Başka bir yapay zeka destekli sohbet robotunun üreticisi olan Character AI da bir gencin intiharındaki rolü nedeniyle benzer bir davayla karşı karşıya. İlerleyen günlerde bu tür olayların mahkemede nasıl şekilleneceğine hep birlikte tanık olacağız. Gelişmeler için takipte kalın!