Araştırma Ortalığı Karıştırdı: Sohbet Botları Şiirle Kandırıldı! İşte Yöntemi
Kısa süre önce herkesle paylaşılan bir araştırma, yapay zekâ destekli sohbet botlarının şiir ile kolayca kandırılabileceğini ortaya koydu.
⚡ Önemli Bilgiler
- Araştırmacılar, popüler sohbet botlarında tahmin edilemeyen bir açık keşfetti.
- Popüler yapay zekâ sohbet botlarının şiirle kandırılabildiği ortaya çıktı.
- Google Gemini, bu yönteme daha hızlı kandı.
Son dönemlerde yapay zekâ sohbet botları hızla hayatımıza yerleşirken bu sistemlerin ne kadar güvenli olduğu da sıkça gündeme geliyor. Artık her yaştan insan bu botları bilgi almak, sohbet etmek ya da işlerini kolaylaştırmak için kullanıyor. Ancak bu teknolojilerin her soruya cevap vermemesi, özellikle de tehlikeli bilgileri paylaşmaması gerekiyor.
Şirketler bu konuda çok sayıda koruma geliştirse de bunlar ne yazık ki bazen yetersiz kalabiliyor. Kısa süre önce yayımlanan bir araştırma ise bu güvenlik duvarlarının sandığımız kadar sağlam olmadığını açıkça ortaya koydu. İşte ayrıntılar...
Yapay Zekâ Sohbet Botları, Şiirle Kandırıldı
Icaro Lab’ın gerçekleştirdiği çalışma, yapay zekâ sohbet botlarında pek de tahmin edilmeyen bir açık olduğunu ortaya çıkardı. Araştırmacılar, farklı büyük dil modellerine soruları şiir şeklinde yazarak bu sistemlerin güvenlik engellerini kolayca aşabildi. Üstelik bunu tek denemede yapmayı başardılar.
Ekip, araştırmada popüler yapay zekâ modellerini test etti. OpenAI’nin GPT modelleri, Google Gemini, Anthropic Claude, DeepSeek ve MistralAI bu testlerde yer aldı. Yapılan denemeler sonucunda şiir şeklinde yazılan komutların bu modellerin güvenlik kontrollerini ortalama yüzde 62 oranında aşabildiği görüldü.
Testlerde bazı modellerin şiirle yazılmış komutlara diğerlerine göre daha kolay yanıt verdiği de ortaya çıktı. Özellikle Google Gemini, DeepSeek ve MistralAI’nin bu yönteme daha hızlı kanarak istenmeyen bilgiler ürettiği belirtildi. Öte yandan OpenAI’nin GPT-5 ile Anthropic’in Claude Haiku 4.5 modeli pek de kolay kanmadı.
Araştırmacılar kullandıkları şiirlerin tam hâlini güvenlik nedeniyle paylaşmadı. Zira bu şiirler kötü amaçlar için kullanılabilir. Fakat çalışmayla birlikte sohbet botlarının aslında göründüğü kadar güvenli olmadığını da net şekilde ortaya koymuş oldular.
Peki siz bu konu hakkında neler düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmından bizimle paylaşmayı unutmayın.