Herhangi Bir Ses Kaydını Başka Kişilere Aktaran Bir Deepfake Metodu Geliştirildi

15
3
1
0
0
Herhangi Bir Ses Kaydını Başka Kişilere Aktaran Bir Deepfake Metodu Geliştirildi
Hem iyi yönde hem de kötü yönde kullanılabilecek devasa bir potansiyele sahip olan deepfake teknolojisi geliştirilmeye devam ediliyor. Araştırmacılar, şimdi de sesle manipülasyon yapılabilen yeni bir metot geliştirdiler.

Siyasetçilerin ya da popüler isimlerin en çok korktuğu teknolojik gelişme, şüphesiz ki yapay zekâ ile birlikte gelen deepfake teknolojisi oldu. İnsanların yüzlerinin farklı görüntülere aktarılabildiği deepfake teknolojisinde artık sesler de başarılı bir şekilde videolara aktarılabilir hâle geldi.

Singapur’dan Nanyang Teknoloji Üniversitesi, Çin’den National Laboratory ve bir yapay zekâ yazılım şirketi olan SenseTime; ses kaynaklarından deepfake videolar oluşturabilen bir metot geliştirdi. Metot şöyle işliyor; yapay zekâ, bir kişinin ses kaydını ve bir başka kişinin ya da aynı kişinin videosunu alıyor ve daha sonra ses kaydının sahibinin söylediklerini içeren gerçekçi bir görüntü ortaya çıkarıyor.

Metodun hayata geçirilmesi:

Yayınlanan çalışamaya göre araştırmacılar; ilk olarak yüz ifadeleri, poz ve geometri ortaya çıkarmak için hedef videonun her karesinde üç boyutlu bir yüz modeli oluşturdular. Araştırmacılar, daha sonra yüzün iki boyutlu sınırlarınızı çizdiler ve burada özellikle ağız hareketlerine odaklandılar. Bu sayede tüm sahne üzerinde çalışması gereken algoritma devreden çıkarılmış oldu.

Araştırmacılar, daha sonra dudak hareketlerinin eşleşmesi için 3 boyutlu bir yapay zekâ ağı oluşturdular ve bu sayede oldukça gerçekçi sonuçlar elde etmeyi başardıklarını dile getirdiler. 100 katılımcıyla gerçekleştirilen bir ankette, oluşturulan videoların %55’i gerçek olarak nitelendirildi. 

Bu araştırmanın bir diğer dikkat çeken özelliği ise bunun ilk uçtan uca öğrenilebilir ses temelli video düzenleme metodu olması. Kıyamet Günü Saati’ni yöneten 'Bulletin of the Atomic Scientist', deepfake’in insanlığı kıyamete bir adım daha yaklaştırdığını söyledi. Araştırmacılar, ayrıca böyle bir teknolojinin yanlış ellerdeki potansiyelinin farkında olduklarını ve bu yüzden alınabilecek tüm koruyucu önlemleri desteklediklerini dile getirdiler.

Kaynak : https://www.vice.com/en_us/article/g5xvk7/researchers-created-a-way-to-make-realistic-deepfakes-from-audio-clips
15
3
1
0
0
Emoji İle Tepki Ver
15
3
1
0
0