ABD, ChatGPT'yi Gözetim İçin mi Kullanacak? OpenAI'dan Yeni Açıklama

ABD ve OpenAI arasındaki anlaşmadan sonra insanlar panik havasına girerken şirketten yeni bir açıklama geldi. İşte anlaşmanın sınırlarına dair tüm detaylar!

Arda Özünaldım -

Yapay zeka artık akıllı telefonlardan ev aletlerine kadar hemen hemen her şeyde kullanılmaya başlandı. Kullanım alanı yalnızca sorulara yanıt almak, fotoğraf veya video oluşturmakla sınırlı olmayan bu teknoloji artık ülkelerin kendi savunma sistemlerinde dahi aktif olarak kullanılıyor. Hatta Amerika Birleşik Devletleri (ABD), bir süredir bu amaç doğrultusunda Anthropic gibi devlerle anlaşmaya çalışıyor.

Hatırlayacak olursanız ABD, geçen yıl Claude isimli yapay zeka modelinin arkasındaki şirket Anthropic ile anlaşma imzalamıştı. 200 milyon dolar (8 milyar 793 milyon 940 bin TL) değerindeki anlaşma kapsamında şirketin yapay zeka modelleri Savunma Bakanlığının savaş dışı amaçlarla kullanılması planlanıyordu.

Donald Trump yönetimi, bu yıl çeşitli raporların analizi ve askeri sevkiyatların düzenlenmesi gibi kullanım senaryoları ile sınırlı kalmak istemedi ve anlaşmanın kapsamını genişletmek üzere Anthropic ile görüşmeye gidildi. Anthropic eğer gelen talepleri kabul etseydi belirlenen ince sınırlar kalkacak ve yapay zekanın hemen hemen her alanda kullanılmasının önü açılacaktı.

Anthropic Kapıyı Kapattı, OpenAI Açtı

Amerika Birleşik Devletleri, Anthropic'in ret kararından sonra devasa anlaşmayı iptal ederek yönünü başka bir şirkete çevirdi. Bu şirket ise çoğu kullanıcının artık hemen hemen her gün kullandığı yapay zeka destekli sohbet botu ChatGPT'nin arkasındaki şirket OpenAI oldu. Anlaşma iptalinin Anthropic tarafından duyurulmasından kısa bir süre sonra gelen bu yeni anlaşma, gözlerin birden OpenAI'ın üzerine çevrilmesine neden oldu.

Peki, Anthropic'in reddettiği etik olmayan kullanım şartlarını OpenAI mı kabul etti? Bu soru, yeni anlaşmanın duyurulmasından kısa bir süre sonra çoğu kullanıcının kafasına takıldı ve şirkete sorular yöneltilmeye başlandı. Gelen tepkilerdenin ardından yapay zeka devi bir açıklamada bulundu.

ABD, OpenAI Teknolojisini Gözetleme İçin mi Kullanacak?

OpenAI, yeni yayınladığı bir blog yazısında kendi geliştirdiği yapay zeka modellerinin hangi amaçlarla kullanılamayacağının altını kesin olarak çizdi. Bunların başında ise "insanların sürekli takip edilmesi" geliyor. Sadece ABD vatandaşı değil, diğer ülkelerden insanların da endişelenmesine neden olan bu ihtimal, OpenAI'ın açıklamasına göre "asla" gerçekleşmeyecek.

Şirketin diğer bir kırmızı çizgisi, insan müdahalesi olmadan karar verebilen silahlar ile yüksek riskli olabilecek otomatik kararlar almaya dayanan sistemler geliştirilmesi. Peki, şirketin bu çizgileri gerçekten de uygulanacak mı yoksa kullanıcı tepkilerinden kurtulmak için yapılmış gelişigüzel bir açıklama mı?

OpenAI, kullanıcıların ikincisi gibi düşünmemelerini sağlamak için önemli bir adım atarak onlarla güvence vermek istiyor. Öyle ki sadece kâğıt üzerindeki maddelerle kalmak yerine modelleri kendi bulut sistemleri üzerinden sunup kendi personellerini sürece dahil edeceğini söylüyor. Böylece insan odaklı bir denetim mekanizması kurulması planlanıyor.

ChatGPT'nin İndirme Sayılarında Gerileme Oldu

Apple tarafından paylaşılan verilere göre ABD'nin daha kapsamlı anlaşma talep ettiği Anthropic'in Claude sohbet botu, App Store'da (ABD versiyonu) en çok indirilen uygulama hâline geldi. ABD ile anlaşan OpenAI'ın sohbet botu ChatGPT ise ikinci sıraya geriledi. Bu gelişmenin kullanıcı tepkilerinden kaynaklı olduğu düşünülüyor.

Yapay Zeka

Sosyal Medyayı Yıkan Yapay Zeka Devinin Yeni Modeli Yolda!

Editörün Yorumu

OpenAI, Anthropic'ten kalan koltuğa oturarak ABD ile büyük bir iş birliğine gitti. Şirketin şu anda paraya ihtiyacı var ve bu anlaşma, en azından biraz dahi olsa nefes almasını sağlayacak gibi görünüyor. Öte yandan insan odaklı bir denetim mekanizması kurmaya odaklanmasının da kullanıcılardan gelen geri bildirimlerin dinlendiğine işaret ediyor. O yüzden bunları şimdiye kadar atılan önemli adımlardan biri olarak görüyorum.

Benzer İçerikler