Facebook, Şiddet İçeren Görüntüleri Kaldırmak için Polis ile İş Birliği Yapacak

Facebook bugünlerde sosyal medya platformunda paylaşılan şiddet görüntülerinin önüne geçmek üzerine çalışıyor. Bunun için de Facebook, şiddet içeren görüntülerin kaldırılmasını sağlayacak olan yapay zekanın kullanılacağı tespit sistemi için polislerle iş birliği yapacak. ABD ve İngiltere polisiyle birlikte çalışacak olan Facebook, polislerin vücut kamerasıyla çekilmiş olan görüntüleri kullanacak.

İlk olarak vücut kamerası kullanan İngiltere Metropolitan Polis Teşkilatı ile çalışacak olan Facebook’a bu çalışmanın hiçbir maliyeti olmayacak. Çünkü Facebook da elde ettiği bilgileri Birleşik Krallık İçişleri Bakanlığı ile paylaşmış olacak. Bu iş birliğinden sonra Facebook, ABD ile de benzer çalışmalar yapmayı planlıyor.

Facebook’a göre özellikle Yeni Zelanda’da gerçekleşen Christchurch olayı gibi canlı yayınlanan toplu saldırılarda işe yarayacak olan yöntem ile makine öğrenmesi eğitilerek bu görüntüleri tespit etmesi sağlanacak. Facebook’un açıklamalarına göre şiddet içerkli görüntülerin günlerce platformda kalmasının sebebi, birinci şahıs açısından çekilmiş görüntülerin sistemde yer almamasından kaynaklanıyor. Yapay zeka, polis eğitim programlarından elde edilen görüntülerle desteklendiğinde sistem artık şiddet içeren görüntüleri tanımaya başlayacak. Üstelik bu yöntem ile Facebook, film gibi kurmaca görüntüler ile gerçek görüntüleri ayırt edebilecek.

Facebook’un polis teşkilatlarıyla birlikte yürüteceği ve kasım ayında başlaması planlanan projeye Instagram da dahil olacak. Sadece geçtiğimiz iki yılda platformdan 26 milyona yakın şiddet içerikli görüntü kaldırdıklarını söyleyen Facebook, artık bunu daha etkili bir şekilde gerçekleştirebilecek gibi görünüyor.