Askeri Yapay Zekanın Kandırılabilir Olması, Kitleleri Tehlikeye Atıyor

Yapay zekanın askeri alanda kullanılması, yapay zekanın ilk ortaya çıkışına dayanıyor. Ancak Askeri yapay zekanın da kandırılma ihtimali bulunuyor ve bu alandaki bir yapay zekanın kandırılması, kitlesel felaketlere neden olabilir.

ABD ve Çin arasındaki rekabetin en önemli alanlarından birisi de askeri endüstri. İki ülke askeri alanda birbirlerine üstünlük sağlamaya çalışıyor. Ancak Çinli araştırmacıların geçtiğimiz mart ayında açıkladığı bir proje, ABD tarafından tedirginlikle karşılandı. Çinli teknoloji devi Tencent’in güvenlik laboratuvarından bir ekip, Tesla’nın yapay zeka algoritmalarını kandırmanın birkaç yolunu gösterdi.

Çinli araştırmacılar, Tesla’nın sensörlerini besleyen verileri ustaca değiştirmeyi başardılar. Araştırmacıların açıkladığı durumlardan birinde Tesla’da bulunan bir ekran ve ön cam sileceklerini kandıran bir düzenek gösterildi. Bir diğer durumda ise Tesla’nın otonom sürüş sistemini karıştırmak için yoldaki şerit işaret verileri çok küçük bir şekilde değiştirildi. Bu şekilde Tesla, otonom sürüşte trafik ve şeritlerin durumuna doğru bir şekilde karar veremedi. 

Tesla’nın yapay zekasını kandırmak, bir ülke için stratejik olarak bir riske işaret etmiyor olabilir. Ancak bu müdahale bir uçağa ya da bir uyduya yapıldığında ortaya çıkacak sonuçlar nasıl olabilir? Benzer taktikler askeri olarak kullanılacak yapay zeka üzerinde nasıl kullanılabilir?

Yapay zeka avantajı

Dünyadaki ülkelerin bir kısmı yapay zekayı büyük askeri avantajların kapısı olarak görüyor. Çin, Temmuz 2017’de “dünyanın önde gelen gelişmiş ülkelerinin ulusal rekabeti artırmak ve ulusal güvenliği korumak için yapay zekayı büyük bir strateji olarak kullandığını” açıkladı. Çin’in yapay zeka alanındaki stratejisi ise “yapay zeka alanında dünya lideri olan, dünyanın da yöneticisi olacaktır” şeklinde. 

ABD’de bu yılın başlarında istihbarat analizi, karar alma, araç özerkliği, lojistik ve silah dahil olmak üzere ordunun birçok alanında yapay zekanın kullanılması için büyük bir strateji açıkladı. ABD Savunma Bakanlığı, 718 milyar dolar olan bütçesinden 927 milyon doları yapay zeka çalışmaları için ayırdı. 

Dünyanın en zeki ve en ölümcül yapay zeka silahlarına sahip olmak isteyen ülkelerin, silahların rakipleri tarafından da kandırılabileceğini düşünmeleri gerekiyor. Bu şekilde kandırılan yapay zeka silahları yararsız hale gelebilir ya da bizzat silahın sahibi olan ülkeye karşı kullanılabilir. 

Askeri yapay zeka denemeleri

Michael Kanaan, ABD’nin yapay zeka çalışmalarında görev alıyor. Kanaan, altı yıl önce Afganistan’daki ABD Hava Kuvvetleri’nde görevliydi. Afganistan’daki görev sırasında yeni bir tür istihbarat toplama aracı üzerinde çalışıldı: hiperspektral görüntüleyici. Görüntüleyici, kamuflajla örtülmüş tanklar veya doğaçlama yapılmış bir bomba yapım atölyesinden çıkan emisyonlar gibi normalde görünümden gizlenmiş nesneleri tespit edebiliyor. ABD ordusu bu şekilde Afganistan’da binlerce kilo patlayıcı toplayabildi. 

Michael Kanaan, hiperspektral görüntüleyicinin kullanılmasında en büyük sorunun verilerin okunmasında yaşandığını belirtiyor. Kanaan, görüntüleyicinin topladığı verileri okumalarının çok uzun zamanlarını aldığını belirtti. Kanaan, “Verilere bakarak çok fazla zaman harcadık ve karar almak için yeterli zamanımız yoktu” dedi.

Hiperspektral görüntüleyici sorununu Toronto Üniversitesi’nden bir ekibin çalışması çözebilir. Çok katmanlı bir sinir ağından esinlenen bir algoritmanın, yeterli veri ve bilgisayar gücü verildiğinde eşi benzeri görülmemiş becerilere sahip görüntülerdeki nesneleri tanıyabildiği açıklandı.

Bir sinir ağını eğitmek, görüntüdeki pikseller gibi verilerde beslenmeyi ve ağdaki bağlantıları sürekli olarak değiştirmeyi, matematiksel teknikleri kullanarak, görüntüdeki nesneyi tanımlamak gibi belirli bir sonuca yaklaşmasını içerir. Derin öğrenme ağları zamanla insanları ya da evleri oluşturan piksel kalıplarını tanımayı öğrenir. Derin öğrenme alanındaki gelişmeler mevcut yapay zeka gelişmesini tetiklemiştir. Derin öğrenme, Tesla’nın özerk sistemlerini ve OpenAI’nin algoritmalarını sağladı. 

Ancak derin öğrenme sayesinde görüntülerdeki piksellerden nesneleri tanıyacak yapay zekanın verilerinde yapılacak küçük değişiklikler yapay zeka ağının verileri yanlış değerlendirmesine sebep olabilir. 

Askeri alanda yeni yapay zeka çalışmaları

MIT’den dört bilim insanının geliştirdiği kaplumbağa modeli, hareketli nesnelerin yapay zeka tarafından algılanmasını sağlayabilir. Anish Athalye ve ekibi tarafından geliştirilen kaplumbağa modeli, ters çevrildiğinde dahi nesneleri tanımaya devam ediyor. 

Athalye ve ekibini kaplumbağa modeli, Pentagon’un Savunma Geliştirme Araştırma Projeleri Ajansı(DARPA) tarafından kabul edildi. Anish Athalye, sektördeki başka insanlarla konuştuğunda yapay zekanın askeri alanda kullanılmasının onları tedirgin etmediğini anladığını söyledi. Athalye, “Sektördeki bir grup insanla konuştum ve onlara çeşitli örnekler için endişe edip etmediklerini sordum. Cevap, neredeyse tamamen, hayır” olduğunu açıkladı. 

Kaplumbağa modelinin yanında Massachusetts Üniversitesi’nden araştırmacıların geliştirmeye devam ettiği GARD projesi de DARPA tarafından kabul edildi. Ancak çalışma hala istenilen düzeyde gelişme getirmedi.

Askeri yapay zekaya karşı tepkiler

ABD, daha önce Google ile beraber askeri yapay zeka alanında bazı çalışmalar gerçekleştirmişti. Ancak şirket çalışanları tarafından yapay zekanın askeri alanda kullanılma çalışması fark edilince Google, bir protesto dalgasına maruz kalmıştı. Bazı Google çalışanları, askeri yapay zeka çalışmalarından dolayı Google’dan istifa ettiler. 

Google, çalışanlarının protestosunun ardından projeyi durduğunu açıkladı. Google çalışanlarının tepkisinin ardından yapay zeka çalışması yapan diğer şirketlerinde askeri yapay zeka çalışmalarına katılmaması yönünde tepkiler ortaya çıktı. Yapay zeka alanında araştırma yapan laboratuvar ve şirketlerin büyük bir kısmı, tepkilerin ardından askeri alanda çalışma yapmayacaklarını açıkladı. 

İnsanlar yapay zekanın askeri alanda kullanılmaması için de uluslararası anlaşmaların düzenlenmesini talep ediyor. Ancak bu anlaşma ile ilgili ülkelerin hükümetleri herhangi bir adım atmış değil. Uluslararası pazar rekabeti de bu anlaşmanın yapılmasının önündeki en büyük engel olarak duruyor. 

Ortaya çıkan tepkilerin ardından ABD, Google ve Amazon gibi şirketlerle beraber çalışmak yerine üniversitelerle beraber askeri yapay zeka çalışmaları için anlaşmalar yapmaya başladı. Ancak bu çalışmaların getirisi insanlar üzerinde tedirginliğe sebep oluyor.