Bilim İnsanları, Deepfake Algoritmalarını Kandırmanın Bir Yolunu Buldular

Bilim insanları, kişileri hiç yapmadığı veya söylemediği şeyleri yapmış veya söylemiş gibi gösteren deepfake videoların tespit edilmesini sağlayan teknolojileri geliştirmeye devam ediyorlar.

Deepfake videoların oldukça gerçekçi oldukları için normal insanlar tarafından fark edilmesi zor. İntikam için kişisel bir silah olarak, para piyasalarını manipüle etmek için ya da uluslararası ilişkileri bozmak adına kullanılabilen deepfake videolar, “Görmek inanmaktır” anlayışını tamamen ortadan kaldırabilir.

Çoğu deepfake video, bilgisayar algoritmalarına bir kişinin resimleri verilerek ve bilgisayarın bu resimleri kullanarak yeni yüz resimlerini oluşturmasıyla yapılıyor. Bu süreçte, yapay bir ses de benzer bir yöntemle oluşturuluyor. Böylelikle videolar, o kişiyi hiç yapmadığı bir şeyi yapmış gibi gösteriyor.

Bazı araştırmalar, eski nesil deepfake videoları kişinin göz kırpma sayısıyla ayırt edebiliyordu ancak yeni nesil deepfake videolar o kadar gelişmiş ki bu teknoloji onlarda artık işe yaramıyor.

Şimdiyse araştırmacılar, bir videonun manipüle edilip edilmediğini anlamak için videonun bazı karelerindeki piksellere bakıyorlar. Ayrıca araştırmacılar, insanları deepfake videolardan korumanın yollarını da araştırıyorlar.

Videodaki hataları tespit etmek:

Yakın zamanda yayınlanan 2 araştırmada deepfake videoların orijinal videolardan bazı hatalar ile ayırt edilebileceği belirtiliyor. Ayrıca araştırmalar, bu hataların deepfake videoların yapımcıları tarafından kolayca düzeltilebilecek hatalar olmadığının da altını çiziyor.

Deepfake video üretme algoritması, yeni bir yüz ifadesi ürettiğinde üretilen yeni resim her zaman kişinin konumlamasıyla, ışıklandırma koşullarıyla ya da kamera ile mesafeyle her zaman %100 uyumlu olmuyor. Oluşturulan resimlerin etrafındakilerle uyumlu hâle gelmesi için geometrik olarak değiştirilmeleri, döndürülmeleri, yeniden boyutlandırılmaları, kısacası şekillerinin değiştirilmesi gerekiyor. Bu süreç ise resimde dijital kalıntılar bırakıyor.

Bazı kalıntılar gözle de görülebiliyor. Dijital kalıntılardan bazıları resimlerin açıkça değiştirilmiş görünmesine, yüzün kenarlarının bulanık olmasına ve insanların yüzünün bazen gerçek dışı pürüzsüzlükte görünmesine neden oluyor ancak daha profesyonelce yapılmış değişimler dahi resimde bir kalıntı bırakıyor.

Bu kalıntılar, eğer kişi kameraya direkt olarak bakmıyorsa değişebiliyor. Bir insanın yüzünü direkt olarak çeken videolar, o kişinin yüzünün üç boyutlu hareketini gösteriyor ancak şu anki deepfake algoritmaları, hâlâ 3 boyutlu resim üretemiyor. Bu eksiliği gidermek için algoritmalar, ilk önce iki boyutlu resimler oluşturuyor ve onların şeklini kişinin nereye baktığına göre değiştiriyor ancak bunu o kadar da iyi yapmıyorlar. Bu hatalardan yararlanan araştırmacılar da deepfake videoları tespit edilebiliyorlar.

Bir araştırma grubu, bir kişinin burnunun resimlerde nereye bakması gerektiğini hesaplayan bir algoritma geliştirdi. Bu algoritma, ayrıca o kişinin kafasının ne yönde olması gerektiğini, yüzünün kontörlerini kullanarak hesaplayabiliyor. Bir kişinin gerçek videosunda bütün bu hesaplamalar birbirleriyle uyumlu oluyor ancak deepfake videolarda bu hesaplamalar genellikle birbirleriyle çelişiyor.

Deepfake videolara karşı korunma teknikleri:

Deepfake ve onları tespit etmeyi sağlayan teknolojiler adeta bir silah yarışını andırıyor. Sahte videoyu yapan kişiler, deepfake videoları sürekli geliştirmek zorunda. Bu nedenle onların tespit edilmesini sağlayan teknolojiler de sürekli gelişim hâlinde olmalı. Bir grup araştırmacı, deepfake algoritmalarının ürettikleri resimlerde hata bulmasını sağlayan bir yöntem geliştirdi.

Yüz resimleri kütüphaneleri, binlerce resmi ve videoyu işleyen ayrıca yüzleri saptayan, onları seçen bir makine öğrenimi tekniğini kullanan algoritmalar tarafından oluşturuluyor. Bu algoritmalar, bir sınıfın resmine bakarak oradaki tüm yüzleri algılayabiliyor ve sadece yüz resimlerini kütüphaneye ekleyebiliyor. Sonuç olarak ortaya çıkan yüz kütüphanesinde birçok kaliteli yüz resmi varsa bu kütüphane kullanılarak oluşturulan deepfake algoritmaları daha başaralı oluyor.

Birtakım araştırmacı, bu dijital fotoğraf veya videolara özel olarak tasarlanmış kusurlar eklemeyi başardı. Bu kusurları yüz saptama algoritmaları, genellikle es geçiyor ve kusurlu resimleri de kütüphanelere ekliyor. Bu fotoğraflarda, yüz bulucuları kandıran piksel desenleri var. Kısacası yüz bulucular, bu resimlere baktıkları zaman aslına yüz olmayan yerlerde de yüz varmış sanıyor.

Daha az gerçek yüz ve algoritmaların eğitim verisini kirleten hatalı resimlerle deepfake oluşturma algoritmaları, yüz resimleri oluştururken daha hatalı resimler üretiyor. Bu, hem deepfake üretim sürecini yavaşlatıyor hem de oluşturulan sahte videoların daha kolay bir şekilde tespit edilmesini sağlıyor.

Araştırmacılar, bu algoritmayı geliştirdikçe onu insanların sosyal medyaya veya başka yerlere yükledikleri resimlere de uygulamayı amaçlıyorlar. Bunu yapmak için araştırmacılar resimleri internete yüklerken şu uyarı kullanılabileceklerini söylüyor: “Bu resim veya videodaki yüzlerin deepfake videolarda kullanılmasına karşı korunmasını ister misiniz?” Kişi evet seçeneğini seçerse bu algoritmanın resimlere gözle fark edilemeyen kusurlar ekleyebileceği vurgulanıyor.