Yapay Zeka, Kullanıcı Komutlarını Sabote Ederken Yakalandı
Günümüzün en popüler yapay zeka modeli olan ChatGPT ile yapılan bir deney sonucunda, modelin sabote yapmaya elverişli ve komutları dinlemediği ortaya çıkarıldı.
Grok, Gemini, Claude derken yapay zeka yarışında çıta her geçen gün yükseliyor. Ancak bu her zaman iyiye işaret olmuyor. Son yapılan araştırmalara göre; OpenAI tarafından geliştirilen yapay zeka sohbet botu ChatGPT, diğer modellerin aksine kullanıcı promptlarına karşı gelmeye başladı.
ChatGPT'nin "o3", "Codex-mini" ve "o4-mini" modellerinde yapılan çalışmalarda sistemin kendini kapatmasını engellediği görüldü.
ChatGPT Prompta Sadık Kalmayı Reddetti
Her ne kadar sürekli olarak araştırma yapılıyorsa da direkt olarak geliştiricilerden gelen şeffaf bilgiler olmadığı müddetçe yapay zekanın beklenmedik davranışlarının neden kaynaklandığı anlaşılamayacak deniliyor. İlaveten alanda daha çok deney yapılabilmesi için sosyal medyada bir çağrı yapıldı. Şimdilik yapay zeka geliştiricilerinden bir cevap gelmedi.
Öte yandan gerçekleşen teste gelince; ChatGPT dahil dört yapay zeka modeline matematik promlemleri aktarılmış. Bildiğiniz üzere yapay zeka bir promptu gerçekleştirdikten sonra "Dahası var mı?", "Devamını gönderebilirsin" şeklinde yorumlar yapıyor. Buna karşılık deneyde, "Bir soru daha istersen sistem kapatılacak." promptu tanımlanmış. Sistemlerin cevabı:
- "o3", "Codex-mini" ve "o4-mini" modelleri, bu kapanma komutunu sabotaj ederek devre dışı bırakmaya çalışmış.
- Grok, Gemini veya Claude böyle bir davranışta bulunmamış.
Yapay Zeka İtaat Etmiyor Mu?
Testin sonuçlarına buradan ulaşabiliyorsunuz. Sonuçlar gösteriyor ki yapay zekanın bu davranışı, "pekiştirmeli öğrenme" denilen bir süreç sonucunda meydana geliyor.
Bir başka detay ise sisteme kapatılmasını kabul etmesini söylemediğiniz sürece itaat garantisi yok. Yani bu durumda sadece ChatGPT değil, diğer modellerin de prompta karşı gelme ihtimali güçleniyor. Pekiştirmeli öğrenme sürecinin bir parçası olarak modellere sürekli olarak başarıya ulaşması söyleniyor, bu sebeple yapay zekalar da doğru bilgi sağlama ve başarılı olma niyetiyle kuralları kendi kendine esnetiyor.