32
17
5
5
3
Geride bıraktığımız yıllarda gerçekleştirilen birçok yapay zeka projesinde karşılaşılan ırkçılık ve cinsiyetçilik problemleri, son dönemde yapılan çalışmalarla bir miktar azaltılmış olsa da bu iki problem, hâlâ yapay zeka uygulamalarındaki en önemli sorun.

Yüksek boyutlu veriler, çeşitli analizler ve yapay zeka uygulamalarından faydalanılarak tasarlanan makine öğrenme algoritmaları, insan zihninin ötesinde bir öğrenme deneyimi sunuyor. Fakat bu algoritmalarda kullanılan yapay zeka eğitimleri, insanlar tarafından seçilen ve derlenen verilerle yapıldığı için büyük problemleri de beraberinde getiriyor.

Ön yargı hayatımızın bir parçası olsa da bunun yapay zeka algoritmalarına yansıması gelecekte büyük problemlerin oluşmasına sebep olabilir. Cinsiyetlerden ırklara kadar birçok ön yargı, daha önce geliştirilen bazı yapay zeka uygulamalarından karşımıza çıkan en büyük problemlerden biri. 

The Agile Architecture Revolution isimli kitabın yazarı Jason Bloomberg, yapay zekanın uygulamalarında karşılaşılan ön yargı probleminin gelecek adına büyük bir tehdit olduğunu söylüyor. Yapay zekanın eğitim verileri hakkında konuşan Bloomberg, "İnsanlar hakkındaki veri kümeleri, fiziksel dünyayla ilgili verilere daha az duyarlıyken ön yargılara karşı daha duyarlı” ifadeleriyle yapay zeka uygulamalarında ön yargının ne kadar büyük bir problem olduğunu belirtiyor. Geçmişte ön yargı sorunuyla karşılaşılan birkaç yapay zeka örneğine gelin birlikte göz atalım.

Microsoft'un ırkçı yapay zekası Tay.AI:

Microsoft tarafından 2016 yılında geliştirilen Twitter sohbet botu Tay.AI, 'TayandYou' isimli Twitter hesabından insanlarla etkileşime girmiş ve inanılmaz yanıtlar vererek tüm dünyayı şaşkına çevirmişti. Verdiği ırkçı, cinsiyetçi ve küfürlü cevaplarla başlangıcından tam 16 saat sonlandırılan proje, o dönem yapay zekada karşılaşılan ırkçılık ve cinsiyetçilik problemlerini göz önüne sermişti.

Apple'ın cinsiyetçi emoji önerme sistemi:

Geçtiğimiz yıl iPhone kullanıcıları, klavyeden 'CEO' kelimesini tuşladıklarında, telefon 'iş adamı' isimli emojiyi önererek yapay zekanın cinsiyetçi bir tutum takınabileceğini bizlere göstermişti. Apple, daha sonra yayınlanan bir güncellemeyle bu problemi çözmüş ve kullanıcılarına bu tür öneri durumlarında cinsiyet seçeneği sunmuştu.

Google Translate'in cinsiyetçi çeviri sistemi:

Daha önceki sürümlerinde 'o bir hemşire' cümlesini 'she is a nurse', 'o bir doktor' cümlesini 'he is a doctor' şeklinde çeviren Google Translate, bizlere yapay zekanın cinsiyetçi olabileceğini bir kez daha göstermişti. Google Translate'e gelen yeni özellikle birlikte artık Türkçe dilinden eril ve dişil ayrımı yapılan dillere çevirilerde cinsiyet dikkate alınarak kullanıcılara farklı çeviri seçenekleri sunulacak.

Yapay zeka algoritmaları, tanımlanan veri setlerinde belirli mesleklerdeki erkeklerin sayısının daha fazla olmasını tespit eder ve buna göre bir sonuç verir. Bu durum da yapay zekanın eğitiminde kullanılacak veri setinin ne derece önemli olduğunu açığa çıkarıyor.

Bu noktada yapılması gereken şey, programcıların yapay zekada ortaya çıkabilecek ön yargıları önceden tespit edip buna göre önlem almaları olmalı. Ayrıca eğitimlerde kullanılan veri setlerinin, özenle seçilmesi ve herhangi bir ön yargı oluşumuna mahal vermemesi gerekiyor.

Google Translate örneğinde olduğu gibi çözümlerin yanı sıra yapay zekayı ön yargıya karşı eğitmek de bir seçenek. Dünya üzerinde birçok programcı, yapay zekada karşılaşılan bu problemler üzerine çalışsa da şu an için etkili bir yöntem henüz uygulanabilmiş değil. Önümüzdeki süreçte yapay zekanın ev büyük problemlerinden ırkçılık ve cinsiyetçiliğe karşı çözüm bulunup bulunamayacağını hep birlikte göreceğiz.

Kaynak : https://thenextweb.com/syndication/2019/03/24/ais-are-being-trained-on-racist-data-and-its-starting-to-show/
32
17
5
5
3
Emoji İle Tepki Ver
32
17
5
5
3