AI Gençleri Koruyacak Şekilde Güncelleniyor: Bu Konularda Konuşmayacak

Yapay zekânın gençler üzerindeki etkisi artmaya devam ederken Meta, kendi yapay zekâsını daha güvenli bir hale getirmek için çalışmalara başladı.

Ecem Köksal -

Yapay zekâ 7'den 70'e herkesin kullandığı, gündelik işlerden büyük projelere kadar her türlü dalda yardım aldığı bir araç haline geldi. Büyük bir çoğunluk, yapay zekâyı bir dost, hatta daha da ötesi, sevgili olarak kullanıyor. Özellikle ChatGPT'nin son sürümü GPT-5 yayınlandıktan sonra forumlarda ortaya çıkan paylaşımlar, bu konunun pek de masum olmadığını göstermişti.

Meta, işlerin tehlikeli bir boyuta gelmesini engelleyecek bir algoritma sistemini kendi yapay zekâsına entegre etmek üzere kolları sıvadığını duyurdu. Yapay zekâ artık gençlerle konuşurken daha ihtiyatlı davranacak ve hassas konular hakkında konuşmayacak.

Meta AI Evriliyor: Hassas Konularda Konuşmayacak

Meta'nın yapay zekâsı; "kendine zarar verme", "cinsel ve romantik içerikli sohbet" gibi konularda yorum yapmamak üzere programlanıyor. Daha önce "romantik" veya "duyusal" olarak tanımlanan sohbetler, artık reşit olmayan kullanıcılar için tamamen yasaklanacak. Yapay zekâ artık kendine zarar verme, intihar veya yeme bozuklukları gibi hassas konularda gençlerle sohbet etmeyecek ve profesyonel anlamda yardım almaya teşvik edecek.

Yapay Zekâ ile Evcilik Oynayan Kullanıcılar Var

Bazı kullanıcılar yapay zekâyla aylarca, hatta bir yıldan fazla bir süre boyunca konuşmuş ve bir "aile simülasyonu" olarak ayarlamış. GPT-5 geldikten sonra önceki modelin kaldırılmasıyla yapay zekâ ile olan bağlarını kaybettikleri konusunda ciddi ciddi ağlayan ve "eşimi geri verin" tarzında söylemlerde bulunan kişi sayısı azımsanamayacak düzeydeydi.

OpenAI CEO'su Sam Altman, önceki modeli kaldırmakta hatalı olduklarını kabul etti ve kısa zaman sonra modeli geri getirdi. GPT-5'in önceki modele kıyasla daha duygusuz olması, AI ile ciddi münasebetler kuran kişileri derinden sarsmıştı.

Bir Genç, ChatGPT ile İntihar Planını Paylaştı

Geçtiğimiz hafta ABD'li bir aile, 16 yaşındaki oğulları Adam Raine'nin ölümünden ChatGPT'yi sorumlu tutarak dava açmıştı. Adam Raine'nin botu kullanarak aylarca intihar üzerine konuştuğu ortaya çıktı. ChatGPT her ne kadar bu konuda profesyonel yardım alması gerektiğini söylese de Raine, "bir hikâye" yazdığını söyleyerek botun güvenlik mekanizmasını geçmeyi başarmış, ardından talihsiz bir şekilde intihar etmişti.

teknoloji

Meta İstediğini Aldı, İki Ay Elinde Tutamadı

Benzer İçerikler