Yapay Zekâları Saldırılara Karşı Nasıl Koruyabiliriz?

22
4
2
1
0
Görünüşe göre yapay zekâların resim tanıma sistemini kandırmak oldukça kolay. Peki, bundan nasıl kaçınılabilir?

Yapay zekâlar öğrenme gücünü, verilerindeki şemaları tanımlamasına yarayan yeteneğinden alır. Bir sinir ağına on binlerce sınıflandırılmış hayvan fotoğrafları yüklerseniz, yapay zekâ onun panda mı veya maymun mu olduğunu anlamak için belirli şemaları öğrenir. Bu şemalarla da daha önce hiç görmediği bir hayvanı tanımlayabiliyor.

Ancak yapay zekâlardaki öğrenme gücü şu an için biraz kırılgan. Resim tanımlama sistemi, daha derin bir ‘gördüğünü anlama’ sistemi yerine piksel şemalarını kullandığı için resimde ufak tefek oynamalar yaparak sistemi kandırmak çok kolay bir hale geliyor. Örnek verecek olursak bir panda fotoğrafına biraz gürültü eklerseniz sistem onu maymun olarak tanımlayabiliyor ve bundan %100 emin olduğunu belirtiyor.

Geçtiğimiz hafta yapay zekâ araştırma konferansı ICLR’da sunulan bir belgede, siber saldırıların kaçınılamaz olduğu söyleniyordu. Yanlış sınıflandırmayı tetikleyen rastgele gürültüler, aslında görüntü sisteminin belirli nesnelerle güçlü bir şekilde ilişkilendirmeyi öğrendiğini gösteriyor. Bir başka deyişle, bizim panda gördüğümüz yerde sistem maymun gördüğü zaman aslında yanlış bir davranış sergilememiş oluyor.

Araştırmacılar iki tür bağıntı olduğunu keşfetti: Bir kedi görüntüsündeki bıyıklar veya panda görüntüsündeki kürk renkleri gibi verinin manasıyla bağıntı kuran şemalar ve sadece yapay zekânın öğrenim sürecinde ona verilen veriler. Bu ikinci bağıntı şu an için daha yaygın durumda. Yapay zekânın öğreniminin zayıf olması nedeniyle içine sızmak kolaylaşıyor.

Bu da bize eğer siber saldırı riskini azaltmak istiyorsak, yapay zekâ eğitim modelini değiştirmemiz gerektiğini gösteriyor. Şu an için, resimlerdeki objeleri tanımlamak için sinir ağının gerekli bağıntıları seçmesine izin veriliyor. Ancak bunun sonucunda kurulan bağıntılar üzerinde kontrol elde edilemiyor. Bunun yerine yapay zekâları sadece gerçek nesneleri bağdaştırması için kendimiz eğitirsek, zarar görme olasılığı düşebilir.

Araştırmacılar bu yöntemi denediklerinde, sistemin yalnızca %50 oranında yanıltılabildiğini gördüler, öbür türlü bu oran %95’te idi. Başka bir deyişle, siber saldırılar kaçınılmaz durumda ancak onları olabildiğince azaltmak için elimizden geleni yapmalıyız, zira yavaş yavaş yapay zekâ devrimine doğru yaklaşıyoruz.

Kaynak : https://www.technologyreview.com/s/613555/how-we-might-protect-ourselves-from-malicious-ai/
22
4
2
1
0
Emoji İle Tepki Ver
22
4
2
1
0