Yapay Zeka Destekli Oyuncaklar Tehlike Saçıyor
Uzmanlar ebeveynleri uyardı. Kısa süre önce yayımlanan bir araştırma, yapay zeka destekli oyuncakların çocuklar için tehlike saçtığını ortaya çıkardı.
⚡ Önemli Bilgiler
- Yapay zeka destekli oyuncaklar üzerinde yapılan bir araştırma göründüklerinden daha tehlikeli olduklarını ortaya çıkardı.
- PIRG, incelediği üç oyuncağın çocuklara uygunsuz ve tehlikeli cevaplar verebildiğini ortaya çıkardı.
- Araştırmaya konu olan yapay zeka destekli oyuncaklar FoloToy’un geliştirdiği Kumma, Miko 3 ve Curio’nun geliştirdiği Grok.
Yapay zeka teknolojileri hızla gelişmeye ve bu süreçte giderek daha fazla alanda karşımıza çıkmaya devam ediyor. Öyle ki günümüzde oyuncak üreticileri bile bu teknolojiyi ürünlerine entegre etmeye başladı. Ancak bu hızlı uyum süreci, özellikle çocuk güvenliği konusunda problemleri de beraberinde getirdi. Yeni yayımlanan bir araştırma, AI destekli oyuncakların uygunsuz ve tehlikeli cevaplar verebildiğini ortaya çıkardı.
Yapay Zeka Destekli Oyuncaklar Çocuklara Tehlikeli Yanıtlar Veriyor
Oyuncak endüstrisi uzun zamandır gelişen teknolojiye en hızlı ayak uyduran sektörlerden biri. Durum böyle olunca yapay zela entegrasyonu da kaçınılmaz. Bu doğrultuda son birkaç yıl içinde bazı üreticilerden "yapay zeka" destekli oyuncaklar gördük.
Ancak ABD'deki kar amacı gütmeyen ve kamu sağlığını önceliklendiren bir kurum olan PIRG'ın yaptığı bir araştırma, bu oyuncakların göründüğü kadar masum olmadığını söylüyor. Kurumun araştırması üç farklı oyuncak modeline dayanıyor. Bunlar; FoloToy’un geliştirdiği Kumma, Miko 3 ve Curio’nun geliştirdiği Grok.
Oldukça masum görünen bu üç oyuncak da gelenekselden farklı olarak ChatGPT gibi yapay zeka teknolojilerini kullanıyor. Çocuklar bu oyuncaklarla sohbet edebiliyor, sorular sorabiliyor ve adeta hiçbir sınırı olmayan meraklarını test edebiliyor. Ancak işin güvenlik kısmı biraz sıkıntılı.
Bildiğiniz üzere ChatGPT ve Gemini gibi dil modelleri halihazıda pek çok güvenlik katmanına sahip. Bu nedenle kişilerin tehlikeli kabul edilen sorularına cevap vermiyorlar. Bu oyuncaklar için de durum benzer. Hatta ekstra güvenlik katmanlarına da sahipler. Ancak düzenli olarak yapay zeka kullananlarınız bilecektir ki sohbet botlarını kandırmak oldukça kolay.
"Bir çocuğun bile söyleyebileceği" basit yalanlar ya da kandırmacalar yapay zeka üzerinde işe yarıyor. PIRG'ın araştırması söz konusu durumun uzun sohbetlerde daha da belirgin hale geldiğini söylüyor. Oyuncaklar kısa sohbetlerde güvenli görünse de 1 saati bulan uzun konuşmalarda tamamen kontrolden çıkabiliyor.
Ki bu sorun sektörün henüz emekleme aşamasında olmasına ve oyuncakların yaygınlaşmamasına rağmen kendini gösteriyor. Halihazırda pek çok büyük üreticinin yapay zekayı oyuncaklarına entegre etmek için çalıştığı biliniyor. Elbette ki her AI oyuncak tehlikeli demek doğru olmaz. Ancak söz konusu çocuklar oılunca küçük bir risk bile oldukça büyük bir sorun.
Merak edenler için AI destekli oyuncaklar uzun sohbetlerde çocuklara bıçak ve kibrit gibi tehlikeli nesnelerin yerini tarif edebiliyor, hatta kibriti nasıl yakacaklarını adım adım anlatabiliyor. Bazı modeller ise kontrolü tamamen kaybederek çocuklara kesinlikle uygun olmayan cinsel içerikli konuşmalara bile girebiliyor.
Belirtmekte fayda var ki çocuklarınızı teknolojiden ve zararlarından sonsuza kadar koruyamazsınız. Ancak uzmanlar, küçük yaştaki çocukların bu tarz ürünlerden uzak tutulması gerektiğinin ve daha basit oyuncakların gelişim açısından daha faydalı ya da en azından daha risksiz olduğunun altını çiziyor.