Deepfake Teknolojisi, Bireysel ve Ulusal Güvenliği Tehdit Ediyor

10
4
1
1
0
Yapay zeka teknolojisinin gelişmesiyle deepfake adında yeni bir teknik ortaya çıktı. Bu teknik ile, istenilen kişinin görüntüsü ve sesi kopyalanabiliyor. Bu nedenle teknoloji, ciddi tehlike arz ediyor.

ABD’nin Temsilciler Meclisi İstihbarat Komitesi, 13 Haziran 2019 Perşembe günü düzenlenen oturumda yapay zekanın ulusal güvenliği tehdidi hakkında konuştu.

Oturumda, özellikle deepfake yapay zekâ teknolojisiyle değiştirilmiş medyaların artması tartışıldı. Duruşmaya katılan herkes hukuk, güvenlik veya yapay zekâ geliştirme ve araştırma alanlarında yetkili kişilerdi. Uzmanlar, birbirleriyle çoğu konuda aynı fikirde olmasa da oturum boyunca fikir birliği olan tek konu deepfakelerin “toplumun çeşitli düzeylerine tehdit oluşturduğu” görüşüydü.

Deepfakes Nedir?

İsmi İngilizcedeki “deep learning (derin öğrenme)” ve “fake (sahte)” kelimelerinin bir araya gelmesiyle oluşturulan deepfakes, derin öğrenme teknolojisi kullanılarak oluşturulan yapay medya unsurlarına verilen isimdir. Resimleri, videoları ya da sesleri yapay olarak üretmenin kötü amaçları olmayabilir ancak gerçek insanların medya unsurlarını bu resimlerle, videolarla veya seslerle değiştirmek çok büyük ahlaki ve yasal hakların çiğnenmesine neden olabilir.

Deepfakes, insanların hiç yapmamış olduğu şeyleri yapıyormuş ya da hiç söylememiş oldukları şeyleri söylüyormuş gibi görünmelerine neden olabilir. Özetle, deepfakes algoritmalarına binlerce resim verdiğiniz zaman model, o kişinin yüzünün farklı açılardan ve farklı yüz ifadelerinde nasıl göründüğünü öğreniyor. Bu eğitim sürecinden sonra algoritma hedef kişinin yüz ifadelerini, başkalarının yüz ifadelerini taklit ederken nasıl olacağını tahmin edebiliyor. Benzer bir süreç, hedef kişinin sesini, tonlamasını ve aksanını deepfakes ile kopyalamak için de kullanılıyor.

Ayrıca, deepfakes algoritmalarını çalıştırmak için gereken teknoloji gereksinimi de yüksek değil. Orta ya da üst düzey bir bilgisayara sahip ve yeterli depolama kapasitesi olan herhangi bir insan deepfakes videoları oluşturabilir.

Deepfakes'in Potansiyel Tehditleri

Bireyler

İlk olarak, deepfakes bireylere karşı bir tehdit unsuru olabilir. Algoritmalar şantaj gibi birçok alanda kullanılabilir. 2017’de yetişkin içerikli web sayfaları, ünlülerin yüzlerini deepfakes ile kendi videolarında kullanmışlardı. Bu durumun Hindistanlı bir haberci olan Rana Ayyub’un da başına geldi. Video paylaşıldıktan sonra kimliği belirsiz bir kişi Ayyub’un ev adresini buldu ve onu internette paylaştı. Bu olayın neden olduğu stres Ayyub’u çok kez hastaneye gitmek zorunda bıraktı.

Organize Suçlar

Deepfakes, suç organizasyonları ve yapay dolandırıcıların sıklıkla kullandığı bir teknik. Deepfakes'in yüzleri kopyalamasının oluşturduğu tehdit, onun bir insanın sesini yüzde yüze yakın kopyalayabilmesinin oluşturduğu tehdide kıyasla oldukça küçük kalıyor. Yapay zekâ şirketi Dessa, bir komedyen olan Joe Rogan’ın sesini deepfakes ile kopyalamıştı.

Değiştirilmiş sesler, sahte kaçırılma senaryolarında kullanılabiliyor. Mağdurlara sosyal medyadan veya bilmedikleri bir telefon numarasından ulaşılıyor ve sevdiklerini geri almaları için onlardan fidye talep ediliyor. Bu dolandırıcılık senaryolarında, arkada yardım çığlığı atan bir oyuncu var. Sevdiklerinin seslerini duyan mağdurlar panikleyip, polise gitmiyorlar ve kişilere istedikleri parayı yolluyorlar.

Ulusal Güvenlik

Deepfakes'in en çok endişe uyandıran kullanımı ise, onların devlet başkanlarının kopyalanmasında kullanılması. Uzmanlar, yapay zekâ gücü ABD ve Rusya’yla yarışan Çin hakkındaki endişelerini dile getirdiler. Muhalifler, karşı oldukları ülkeye korku salmak için deepfakes kullanabilirler.

Deepfakes'in bu konudaki tehdidini gösteren örneklerden biri, Buzzfeed ve komedyen Jordan Peele’in takım halinde çalışıp eski ABD başkanı Obama’yı deepfakes ile taklit ettiklerini gösteren bir video.

Çözümler

Deepfakes'in oluşturduğu tehlikeler oldukça ciddi ancak OpenAI’ın politika direktörü Jack Clark, sahte bilgilerin ve sahte medyanın yeni bir problem olmadığının altını çiziyor. Yapay zekânın kendi başına problem olmadığını, “sadece yapay zekanın bu alanda kullanımının artmasının” problemi oluşturduğunu vurguluyor. Deepfakes'in internette oluşturabileceği zararları azaltmak için bazı öneriler de mevcut.

Farkındalık ve Sorumluluk

Uzmanlar, “Bu sahte şeyleri paylaşan insanlar, sorunun bir parçası haline geliyor” diyor. Ayrıca sosyal medya platformlarının ve ajansların, ellerine geçen haberlerin sahte olup olmadıklarını anlamalarını sağlayacak araçları ellerinin altında hazır bulundurmaları gerektiğini de dile getiriyor.

Ek olarak uzmanlar sosyal medya sitelerine, içeriklerini kontrol etmesi konusunda daha sıkı olmalarını öneriyor. Zararlı medya unsurlarının paylaşıldığı sitelerin daha fazla sorumluluk alması gerektiğini de ekliyor.

Yasa

Uzmanlar önemli olan diğer bir çözüm yolunun ise, bazı deepfakes içeriklerinin yasaklanması olduğunu söylüyor. Citron, bazı insanları için dava etmenin sadece pahalı değil ayrıca çok zor bir süreç olduğunu söylüyor. Ayrıca Citron, suçlanan kişinin ilk önce bulunması daha sonra da mahkemeye çıkması gerektiği için sürecin çok uzun olacağına ve dolayısıyla da bazı şeylerin en baştan engellenmesi gerektiğine inandığını söylüyor.

Deepfakes'in Geleceği

Medyanın deepfakelerle dolması, kesinlikle korkunç bir durum olurdu. Kişilerin güvenlikleri ve özel yaşamları sıklıkla tehdit altında bulunurdu. Bu nedenle deepfakes'in denetlenen bir teknoloji olması gerekiyor. Uzmanlar, deepfakes teknolojisinin yasaklanmasının bir şey değiştirmeyeceğini, asıl farkın insanların bilinçlendirilmesinin yaratacağına inanıyor.

Kaynak : https://lionbridge.ai/articles/deepfakes-a-threat-to-individuals-and-national-security/
10
4
1
1
0
Emoji İle Tepki Ver
10
4
1
1
0