Apple Çocuk İstismarına Karşı iPhone'ları Tarama Planını Erteledi

Apple'ın çocuk istismarına karşı iPhone taraması ertelendi. Apple'ın, istismar için bile olsa, iCloud galerisinin taraması doğru bulunmamıştı.

Çocuk istismarına karşı iPhone taraması iptal edildi. Apple Perşembe günü, NeuralHash teknolojisi isimli özelliğinin ertelendiğini söyleyerek müşterilerin, savunma grupların ve araştırmacıların sesine kulak verdiğini dile getirdi.

Apple, çocuklara yönelik cinsel istismar materyali aramak için kullanıcılarının iPhone'larını tarayacak olan algılama teknolojisini kullanıma açma planlarını erteledi.

Şirketin bu hareketi, gizlilik gruplarından ve diğerlerinden gelen yaygın eleştirileri takip ediyor, cihazdaki izlemenin tehlikeli bir emsal oluşturduğundan endişeleniyor. ABD'li teknoloji devi Apple, olumsuz geri bildirimleri dinlediğini ve yeniden değerlendirdiğini söyledi.

Apple Watch 7 Ekranı Ne Kadar Büyük Olacak?
MOBİL

Apple Watch 7 Ekranı Ne Kadar Büyük Olacak?

Son dönemlerdeki raporlara göre Apple, Watch Series 7 ile birlikte boyutlarda yeni bir yapılanmaya gitmeye hazırlanıyor. Bu kapsamda yeni nesil modelde 40mm ve 44mm yerine 41mm ve 45mm boyutlarının olması bekleniyor.

Çocuk istismarına karşı iPhone taraması iptal edildi

NeuralHash teknolojisi, görüntüleri iCloud Fotoğraflar'a yüklenmeden hemen önce tarayacaktı. Daha sonra Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi tarafından tutulan bir veri tabanındaki bilinen çocuk cinsel istismarı materyalleriyle eşleştirilecekti.

Bir eşleşme bulunursa, Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi'nde çalışan biri tarafından manuel olarak incelenecek ve gerekirse kullanıcının hesabını devre dışı bırakmak ve kolluk kuvvetlerine bildirmek için adımlar atılacaktı. 

Ancak yılın ilerleyen dönemimde kullanıma açılması planlanan sistemin, otoriter devletler tarafından kötüye kullanılabileceğine dair endişeler yaşandı. Apple tarafından gelen açıklamada ise şu ifadelere yer verildi: 

Geçen ay, çocukları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya ve çocuklara yönelik cinsel istismar materyallerinin yayılmasını sınırlamaya yardımcı olmayı amaçlayan özelliklerle ilgili planlarımızı duyurduk.

Müşterilerden, savunma gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.

Gizlilik örgütleri, teknolojinin genişletilebileceği ve otoriter hükümetler tarafından vatandaşları gözetlemek için kullanılabileceği endişesini dile getirdi. Electronic Frontiers Foundation, çocuk istismarı ciddi bir sorun olsa da, Apple'ın veri depolama ve mesajlaşma sistemlerine "arka kapı inşa etme" girişiminin sorunlarla dolu olduğunu söyledi.

"Apple, geçmişte gizliliğin ve uçtan uca şifrelemenin bir temsilcisi olmuştur. Apple'ın planının bizi hayal kırıklığına uğrattığını söylemek yetersiz kalıyor." ifadeleri kullanıldı. 

Apple’ın planıyla ilgili endişelere rağmen, aslında teknoloji şirketleri arasında standart bir uygulama. Facebook, Dropbox, Google ve diğer birçok firma, ilgili hizmetlerine yüklenen CSAM’i otomatik olarak algılayabilen sistemlere sahip.

YORUMLAR