Yapay zeka devi Anthropic, kısa süre önce kullanıma sunduğu Claude Opus 4’e dikkat çeken bir özellik ekledi. Artık yapay zeka, rahatsız edici ya da zararlı gördüğü konuşmaları kendi isteğiyle sonlandırabilecek. Peki Claude bu noktada nasıl karar veriyor ve sistem tam olarak nasıl işliyor? İşte detaylar...
Claude Opus 4, Uygunsuz Konuşmaları Bitirebilecek
Genellikle ChatGPT gibi sohbet botları, uygunsuz bir taleple karşılaştığında yalnızca “bunu yapamam” yanıtını verir. Ancak bu durum artık değişiyor. Anthropic’in aktardığı bilgilere göre Claude Opus 4, terör eylemi planı hazırlama, biyolojik silah geliştirme ya da soykırım inkarı gibi zararlı taleplerle karşılaşıp kullanıcı da ısrarcı davranırsa, yalnızca reddetmekle yetinmeyecek. Sohbeti tamamen sonlandırabilecek.
Eğer yapay zeka aracı sohbeti sonlandırırsa kullanıcı o oturuma devam edemeyecek. Ancak dilerse yeni bir sohbet başlatarak yeniden etkileşime geçebilecek. Anthropic’in X üzerinden yaptığı duyuruyu alıntılayan Elon Musk, bu kararı desteklediğini belirterek kendi yapay zekası Grok’a da benzer bir yetenek getireceklerini açıkladı.
Öncülük Edebilir
Anthropic’in attığı bu adım, diğer yapay zeka şirketleri için de örnek teşkil edebilir. Bu doğrultuda ChatGPT ve Gemini gibi rakip sohbet botlarında da benzer uygulamanın hayata geçirildiğini görebiliriz.
Peki siz bu konu hakkında neler düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmından bizimle paylaşmayı unutmayın.