Apple Tepkilere Hak Verdi: macOS'un Tepki Alan Özelliği Kaldırıldı!

Apple'ın macOS cihazlardaki çocuk cinsel istismarına yönelik fotoğrafları tespit etmek amacıyla yürüttüğü kontrol sistemi tepkiler üzerine kaldırıldı.

Barış Bulut -

macOS Ventura'da yapılan bir araştırma, Apple'ın macOS Finder'da görüntülenen görüntüleri CSAM içeriği olarak kontrol etmediğini ve Visual Lookup'ın Apple tarafından bu amaçla kullanılmadığını ortaya koydu.

Aralık ayında Apple, iCloud'a yüklenen iPhone fotoğraflarını Çocuk Cinsel İstismarı Materyali (CSAM) için tarama planlarından, eleştirmenlerden gelen önemli tepkilerin ardından vazgeçtiğini duyurmuştu. Bununla birlikte Apple'ın macOS Ventura 13.1'de hâlâ kontroller yapmaya devam ettiğini iddia eden söylentiler devam etti ve bir geliştiricinin araştırmasına yol açtı.

Eclectic Light Co. şirketinden Howard Oakley'in 18 Ocak tarihli bir blog yazısına göre Apple'ın bir kullanıcının Finder'da göz attığı "görüntülerin tanımlayıcılarını" otomatik olarak gönderdiği ve bunu "kullanıcının izni veya farkındalığı olmadan" yaptığı iddiası dolaşmaya başladı. CSAM taraması planı, bir hash sistemi kullanarak potansiyel CSAM içeriği için görüntülerin aygıt üzerinde yerel olarak kontrol edilmesini içeriyordu. Görüntünün hash'i daha sonra gönderilecek ve bilinen CSAM dosyalarının bir listesiyle karşılaştırılacaktı.

Apple'ın CSAM Taramasını Kaldırdığı Keşfedildi

Görüntüleri tarama ve görüntünün özelliklerini tanımlamak için Apple'a gönderilecek bir hash oluşturma fikri CSAM taraması için kullanılabilir olsa da Oakley'in testleri bunun aktif olarak bu şekilde kullanılmadığını gösteriyor. Bunun yerine Apple'ın macOS ve iOS'un bir görüntüdeki kişi ve nesnelerin yanı sıra metni de tanımlamasına olanak tanıyan Görsel Arama sisteminin bu tür bir davranışta bulunmakla karıştırılabileceği görülüyor.

Testin bir parçası olarak macOS 13.1 bir sanal makinede çalıştırıldı ve Mints uygulaması VM örneğindeki etkinliklerin birleşik günlüğünü taramak için kullanıldı. Sanal makinede Finder'ın galeri görünümünde bir dakikalık bir süre boyunca bir fotoğraf koleksiyonu görüntülendi ve 40.000'den fazla günlük girişi yakalanıp kaydedildi.

Sistem CSAM analizi için kullanılsaydı, her görüntü için "mediaanalysisd" den bir Apple sunucusuna tekrarlanan giden bağlantılar olurdu. Mediaanalysisisd, fotoğraflar ve diğer araçların bir görüntüde tespit edilen öğeler hakkında "kedi" veya nesnelerin adları gibi bilgileri görüntüleyebildiği Visual Lookup'ta kullanılan bir öğeyi ifade ediyor. Günlükler bunun yerine mediaanalysisd ile ilişkili hiçbir giriş olmadığını gösterdi. Daha sonra başka bir günlük özeti, macOS 12.3'te göründüğü hâliyle Visual Lookup'a çok benzediği ve sistemin o sürümden bu yana önemli ölçüde değişmediği görüldü.

Görünüşe göre Apple geçmişteki tutumlarına devam ediyor ve kullanıcılardan gelen eleştirilere kulak veriyor. Peki siz bu karar hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.

teknoloji

Apple'ın iOS 17 Planları Ortaya Çıktı

teknoloji

Apple Yazılımlarında Ciddi Güvenlik Açıkları Tespit Edildi

Benzer İçerikler

YORUMLAR