18
3
2
2
1
Yapay zekaların gelişi güzel öğrenme kapasiteleri gittikçe ürkütücü bir hal almaya başlıyor. Microsoft'ın yapay zekaya sahip Twitter profili ise bunun ilk örneklerinden oldu.

Microsoft, geçtiğimiz Mart ayında Twitter'da “Tay” adlı yapay zekaya sahip akıllı bir “chatbot”, yani konuşma motoru yayımlamıştı. Ne olduysa oldu ve 24 saat içinde bot, ırkçılık ve neo-nazi söylemleri üretmeye başlattı. Bu konuşmaları onunla etkileşime giren Twitter kullanıcılarının dilini çözümleyerek ortaya çıkardı. 

Maalesef yeni araştırmalar, yapay zeka aygıtlarının ırkçı dil öğrenebilmesinin tek yolunun Twitter trollerinin olmadığını gösteriyor. Söz konusu örnekteki botun Tweetler aracılığıyla kelime dağarcığını geliştireceğini bilen bir kaç “troll” kullanıcı, botun kullanmasını istedikleri söylemleri içeren tweetler atarak yapay zekanın aklına olmadık şeyler sokmayı başarmış. Bu deneme için Microsoft’un bir öngörüsüzlüğü söz konusu olabilir. Çünkü “troll” kavramı Twitter platformunun belki de en aktif kullanıcı üretimi özelliği olarak algılanıyor.

Şu anda buradaki bağlantıdan ulaşacağınız yapay zekaya sahip Twitter profili koruma alınmış durumda: 

Araştırmacılar, GloVe adı verilen ve yaygın olarak kullanılan bir makine öğrenme sistemi ile deney yaptı ve test ettikleri her tür insan ön yargısının yapay zeka sistemine yerleştiğini buldu. Princeton Üniversitesi'nde araştırmacı olan Aylin Çalışkan, "Bu modellerde yer alan böyle sonuçları görmek çok şaşırtıcı" açıklamasında bulundu. Verdiği demeçte, Vikipedi veya haber makaleleri gibi sözde tarafsız metinlerle "eğitilmiş" yapay zeka cihazları insanların genel yanılgıları ve ön yargılarını yansıtacak şekilde geliştiğini vurguladı.

Dahili önyargı:

GloVe, metinleri internet ortamından çıkartmak için kullanılan bir araçtır. Psikologlar uzun zamandır insan beyninin sözcükleri temel anlamlarına dayandırdığını biliyorlardı. “Örtük Birliktelik Testi” adı verilen bir araç, bu ilişkileri göstermek için tepki sürelerini kullanıyor: İnsanlar, "acı" ya da "güzellik" gibi keyifli ya da hoş olmayan kavramlarla birlikte, "nergis" gibi bir kelimeyi görür ve bu terimleri bir tuşa basarak hızla ilişkilendirmek zorunda kalırlar. Şaşırtıcı olmayan bir şekilde çiçekler, daha olumlu kavramlarla ilişkilendirilir. Örneğin silahlar, olumsuz kavramlarla daha çabuk ilişkilidir.

Kötüyü iyiye eşleyip yapay zekaların eğilimlerini değiştirebilecek olmak gerçekten ürkütücü bir durum. Ünlü astronom Stephan Hawking’in yapay zeka uyarılarını bir kez daha akıllara getiren bu öğrenme süreci, insan üretimi bir şeyi çok farklı noktalara getirebilir. Yapay zekaya sahip orduların kötü olarak bildikleri hedefleri yok ederken durmaları pek mümkün değil. Belki de en karmaşık özelliğimiz “vicdan” kavramının onlarda bulunmayacak olması, büyük bir kıyıma sebep olabilir. Yapay zekaların vicdanını kullanmayan insanların elinde olma ihtimalini düşünmek bile istemiyoruz.

Kaynak : http://www.livescience.com/58675-artificial-intelligence-learns-biases-from-human-language.html
18
3
2
2
1
Emoji İle Tepki Ver
18
3
2
2
1