Apple, Çıplaklık İçeren Görselleri Otomatik Bulanıklaştıran Özelliğini Kullanıma Sunuyor

Apple, özellikle çocukların güvenliğini amaçlayan yeni özelliğinin test edildiği ülkelerin genişletildiğini duyurdu. İşte detaylar!

Apple, Çıplaklık İçeren Görselleri Otomatik Bulanıklaştıran Özelliğini Kullanıma Sunuyor

Apple'ın mesajlaşma hizmetini kullanarak özellikle çocuklara gönderilen çıplaklık içeren görüntüleri otomatik olarak bulanıklaştırmak için tasarlanan "mesajlarda iletişim güvenliği" özelliği, şimdi başka ülkelerde de kullanıma sunuluyor.

Geçen yıl ABD'deki lansmanının ardından özellik artık İngiltere, Kanada, Yeni Zelanda ve Avustralya'daki kullanıcılar için iOS, iPadOS ve macOS'taki Mesajlar uygulamalarına geliyor. Kesin tarih tam olarak belli değil ancak The Guardian, özelliğin İngiltere'ye "yakında" geleceğini bildiriyor.

Tarama cihazda otomatik olarak gerçekleşiyor ve mesajların uçtan uca şifrelenmesini etkilemiyor. Apple'ın mevcut Aile Paylaşım sistemi ile entegre olan özelliğin nasıl etkinleştirileceğine dair talimatlara buradan ulaşabilirsiniz.

Bu özellik, özellikle çocukları korumak için gelen ve giden resimlerin "müstehcen" olup olmadığını tarıyor. Eğer görsel müstehcen bir görselse görüntü bulanıklaştırılıyor ve telefonu kullanan kişinin yardım bulması için rehberlik sağlanıyor. Ayrıca görseli görmemenin ve konuşmadan çıkmanın sorun olmadığına dair güvence veriliyor. Açılan mesajda "Yalnız değilsiniz ve her zaman güvendiğiniz birinden veya eğitimli profesyonellerden yardım alabilirsiniz. Ayrıca dilerseniz bu kişiyi engelleyebilirsiniz." yazıyor.

ABD'deki ilk sürümüne benzer şekilde çocuklar, bulanıklaştırılmış bir fotoğraf hakkında güvendikleri bir yetişkine mesaj gönderme seçeneğine sahip olacaklar. Apple, geçen Ağustos ayında bu özelliği ilk duyurduğunda bu bildirimin otomatik olarak gerçekleşeceğini öne sürmüştü.

Apple, iCloud'a Yüklenen Fotoğrafları da Müstehcen Filtresinden Geçirmeyi Planlıyor

Apple, Çıplaklık İçeren Görselleri Otomatik Bulanıklaştıran Özelliğini Kullanıma Sunuyor

Apple ayrıca Spotlight, Siri ve Safari aramaları için çocukları cinsel istismarla ilgili konularda arama yapan kullanıcıları güvenlik kaynaklarına yönlendirecek yeni bir özelliğin dağıtımını da genişletiyor.

Bu iki güvenlik özelliğinin yanı sıra Apple, geçen Ağustos ayında fotoğrafları bir kullanıcının iCloud hesabına yüklenmeden önce çocuklara yönelik cinsel istismar materyali (CSAM) için taramayı içeren üçüncü bir girişimini daha duyurdu. Ancak bu özellik, Apple kullanıcılarının güvenliğini baltalayacak bir açığa sahip olma riskinin bulunduğunu savunan gizlilik savunucularından yoğun tepki aldı. Şirket daha sonra endişeleri giderirken üç özelliğin de kullanıma sunulmasını biraz geciktireceğini duyurdu. İlk iki özelliğini artık kullanıma sunan Apple, daha tartışmalı CSAM algılama özelliğinin ne zaman kullanıma sunulacağı konusunda henüz bir bilgi sağlamadı.

Peki siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.

YORUMLAR