20
6
5
1
0
İki düzineden fazla uzman tarafından, gelişmekte olan teknolojilerin etkileri üzerinde hazırlanan bir rapor, yapay zekanın önümüzdeki 5-10 yıl içerisinde, yeni siber suç biçimlerine, fiziksel saldırılara ve siyasi bozulmalara neden olabileceğini ortaya koydu.

Yapay zeka ile ilgili şimdiye kadar onlarca hatta belki yüzlerce haber yaptık ve bu haberlerin neredeyse tümünde bu teknolojik gelişme üzerine yapılan yorumları sizlerle paylaştık. Tekrar kısaca belirtmek gerekirse; yapay zekanın gelişimi sürüyor ve bu teknolojinin, bizi gelecekte bir 'köle' olarak kullanacağını düşünenler de var bizi bir adım ileriye taşıyacağını söyleyenler de. Son olarak, "Yapay Zekanın Kötü Amaçlı Kullanımı: Öngörü, Önleme ve Azaltma" başlıklı 100 sayfalık rapor, Oxford Universitesi İnsanlığın Geleceği Enstitüsü, Cambridge Üniversitesi Varolan Risk Araştırması Merkezi, Elon Musk'ın OpenAI şirketi ve Electronic Frontier Foundation de dahil olmak üzere 14 farklı kurumdan 26 uzman tarafından hazırlandı. Raporun temelleri geçen yılın Şubat ayında Oxford Üniversitesi'nde düzenlenen iki günlük bir çalıştayda atıldı.

Raporda yazarlar, yapay zekanın birkaç yıl içerisinde yapabileceği, genellikle hoş olmayan şeyler hakkında ayrıntılı sunumlar yaptı. Dijital, fiziksel ve politik bağlamda konuyu ele  alan uzmanlar yapay zekanın neden olabileceği şeyleri ayrıntılarıyla inceledi.

Oxford Üniversitesi İnsan Hakları Enstitüsünün Araştırma Görevlisi ve raporun yazarlarından Miles Brundage, "Yapay zeka sistemleri, insan performansı seviyelerine ulaşmıyor bilakis önemli ölçüde aşmaktadır" ifadelerini kullandı. Brundage, "İnsanüstü hacklemenin sonuçları, gözetim, ikna etme ve fiziksel hedef belirlemenin sonuçlarını araştırmak rahatsız edici olsa da gerekli, aynı zamanda insanüstü zekanın yanı sıra insan emeğinden çok daha ölçeklenebilir olan yapay zeka yetenekleri de bulunuyor." dedi.

Rapora bakıldığında, birçok birbirine rakip devletlerin yapay zekanın ölçeklenebilmesi ve verimliliğini kullanarak son derece etkili saldırılar başlatabilecek yıkıcı bir güç oluşturduğu görülebiliyor. Zira Birleşmiş Milletler, katil robotlar olarak adlandırılan yapay zekaya sahip silahların kullanımıyla ilgili olarak çalışmalarını sürdürüyor. Öte yandan ülkelerin bu tip silahları geliştirmesi elbette yıkıcı gücünün yanı sıra daha farklı paradigmalara da dayanıyor. İlk olarak ölçülebilir olan yapay zeka, bir insana göre hata yapma açısından daha iyi bir seviyede bulunuyor. Bir başka farklılık ise maliyette ortaya çıkıyor; bir insan ordusunun giderleri ile yapay zekanın giderleri hiçbir zaman eşit düzeyde olmayacaktır. Bunu bugünün fabrika modellerinde görebiliriz. Makineleşme giderek arttıkça işçiye olan ihtiyaç azalmıştır. Bununla birlikte sermaye her sıkıntı yaşadığında makineleri durdurmak yerine işçileri işten çıkarmayı doğru bulmuştur çünkü insan ya da işçi asıl maliyete sebep olandır.

Araştırmacılar ayrıca yapay zekanın fiziksel anlamda insanın yerini almasının yanı sıra, dijital manada da yerini almasının doğuracağı tehlikeleri de raporda belirttiler. Buna göre, spesifik olarak, otomatik hack saldırısı, hedefleri taklit etmek için konuşma sentezi ve "veri zehirlenmesi" içeren siber saldırılar konusunda uyarıda bulundular. Ayrıca, otonom araçların çoğalmasının, 'bilinçli' kazalara sebep olabileceğini, mikro-droneların koordine saldırıları ya da yüz tanıma sistemlerinin suikastçilere dönüşmesi gibi kabusvari senaryolar da raporda yer aldı.

Siyasi açıdan ise yapay zeka, halkın görüşlerini olabildiğine manipüle edebilir, propaganda faaliyetleri yürütebilir ve sahte olsa da oldukça inandırıcı mesajlar yollayabilir veya videolar çekebilir. Yapay zeka ayrıca, hem kamusal hem de özel alanlarda daha iyi gözetim teknolojileri sağlayacaktır. Öte yandan sahte haberler de yapay zeka tarafından oldukça kolay üretilebilecektir.

Her biri yeni bir Black Mirror dizisi olan rapor maddelerinin tamamına erişmek istiyorsanız burayı tıklamanız yeterli olacaktır.

Kaynak : https://gizmodo.com/new-report-on-ai-risks-paints-a-grim-future-1823191087
20
6
5
1
0
Emoji İle Tepki Ver
20
6
5
1
0