Deepfake Tehlikesinin Önüne Geçecek Yöntem Geliştirildi

Deepfake tehlikesinin önüne geçen yeni bir yöntem geliştirildi. Geliştirilen yöntemle birlikte deepfake görüntülerinin oluşturduğu tehlikelerin sonu gelebilir.

Deepfake tehlikesi, teknolojinin henüz gelecekteki haline nispeten biraz daha kusurlu olmasına rağmen son derece göz korkutuyor. Teknoloji henüz çok ileri bir teknoloji olmamasına rağmen daha şimdiden birçok kötü niyetli kişinin ilgisini çekmiş durumda.

Dezenformasyon kampanyaları başta olmak üzere bir dizi kötü amaçla kullanılan teknolojinin önüne geçmek mümkün görünmese de bunu engelleyebilecek bir yöntem geliştirildi fakat bu yöntemin de birtakım dezavantajları bulunuyor ve yöntemin tamamen doğru sonuç vermesi için bazı koşulların karşılanmasına ihtiyacı var.

Birçoğumuz bir olayın yaşandığının kanıtlanması için görüntülere güvenmeye daha yatkındır fakat teknolojinin geldiği nokta, bizi görüntülere de güvenmemek zorunda bırakıyor. Deepfake yani derin sahte görüntüler, insanların aslında kendisinin kullanmadığı sözleri kullanmış gibi gösteren görüntülere verilen isimdir.

Bu teknoloji ile hazırlanan görüntüler birkaç sene öncesine kadar şimdiki halinden çok daha yapay görünüyordu ancak teknolojinin şu anki hali, deepfake ile ilgili çok fazla bilgisi olmayan, birinin aslında gerçekleştirmediği konuşmaları gerçekleştiren bir teknolojinin varlığından haberi olmayan kişiler için oldukça inandırıcı olabiliyor.

Bu görüntülerin oluşturulması sadece dünyaca tanınan isimler için değil sıradan bir hayata sahip olan insanlar için de son derece tehlike oluşturabilir. Örneğin sosyal medyada gezerken bir kişi hakkında gerçekte söylemediğiniz cümleleri sanki siz söylemişsiniz gibi gösteren bir video ile karşılaşabilirsiniz veya web sitelerindeki hesaplarınızı ele geçirmek isteyen kişiler, görüntülerinizi kullanarak hesabın kendisine ait olduğunun zannedilmesini sağlayabilir.

Deepfake teknolojisinin insanın hayatına verebileceği zararları tahmin etmek bile mümkün değilken teknolojinin birkaç sene sonra nasıl bir hale geleceğini tahmin etmek olanaksız görünüyor ancak bilim insanlarının geliştirdiği yeni bir yöntem, bu tür görüntülerin sahte olduğunun anlaşılmasını kolaylaştırabilir.

Deepfake Tehlikesini Ortadan Kaldıran Yöntem Bulundu

Buffalo Üniversitesindeki bilim insanlarının oluşturduğu yeni bir algoritma, insanın yüzünün açık bir biçimde göründüğü görüntüleri tespit etmede %94 başarı gösteriyor. Bilim insanlarının algoritması, insan gözünün en ön tarafında yer alan kornealardan yararlanıyor. Sistem, korneaları analiz ederek bir videonun sahte olup olmadığını ortaya çıkarabiliyor.

Bir kamera ile çekilen bir yüzün fotoğrafında her iki gözdeki yansımanın da benzer olması gerekir çünkü iki gözün baktığı nokta aynıdır. Deepfake görüntülerinde ise bu benzerlik yoktur. Bir videonun sahte olup olmadığını anlamak için başvurulan yöntem, gözün açık bir şekilde görünmediği görüntülerde ise işe yaramıyor.

Araştırmacılar, yöntemin etkinliğini arttırmak için yüzün kameraya dönük olmaması gibi sorunları araştırmayı planlıyor. Yöntem şimdiki haliyle teknolojinin çok iyi kullanıldığı görüntüleri tespit edemiyor ancak acemice hazırlanan deepfake görüntülerinin çoğunu ortaya çıkarabiliyor.

YORUMLAR