10
3
1
0
0
İnsanların geleceğini belirleyebilecek kararlar alan algoritmalar gerçekten adil kararlar verebiliyor mu yoksa onlar da bizler gibi ön yargılara sahip mi?

Algoritmik adalet giderek daha kritik bir hal alıyor çünkü büyük öneme sahip kararların çoğunluğu bilgisayar programları tarafından veriliyor. Bugün, algoritmalar geniş ölçekte kredi skorlarını belirlemede kullanılıyor, yani bir eve sahip olacak mısınız yoksa kirada kalmaya devam mı edeceksiniz, bu algoritmalar belirliyor. Ayrıca algoritlamalar önleyici polislikte de kullanılıyor. Bir suçun işlenebilme olasılığını öngören algoritmalar; bir suçlunun bir sonraki suçunu ne zaman işleyeceğini tahmin ediyor, tabii bu da cezaları etkiliyor.

Boston University’den Adam Smith, birçok algoritmanın tasarımının şeffaflıktan çok uzak olduğunu ve bunun bir sorun olduğunu söylüyor. Smith “Bu sistemlerin çoğunluğu özel şirketler tarafından tasarlanıyor ve sistemlere dair detaylar da tamamen onların malları” diyor.

Smith ve BU-MIT’den bilgisayar bilimcilerinin olduğu bir ekip, bu problemi yeniden gözden geçirmeye başladılar ve bilgisayar programlarına bağlı bu karar verici sistemlerin ön yargılarını anlamayı ve en aza indirmeyi umut ediyor.

Kendi Kendini Besleyen Tahminler Problemi

Boston Üniversitesi araştırmacılarından Ran Canetti “Algoritma ve insan davranışları arasındaki etkileşim öyle ki; eğer bir algoritma yaratır ve öylece çalıştırırsanız o da etkileşime geçtiği insanlarla bambaşka bir toplum oluşturur yani algoritmayı tasarlarken çok dikkatli olmak zorundasınız” diyor.

Araştırmacılar bu problemin, ilerideki algoritmaların eski algoritmaların çıktılarını girdi olarak kullanmasıyla çok daha kötü hale geleceğini söylüyor. Peki, matematiksel fonksiyonlarla çalışan bir algoritma nasıl ön yargılı olabilir?

BU araştırmacılarından Scheffler, bunun iki yolunun olduğunu söylüyor. “İlk yol ön yargılı veriler sayesinde. Eğer algoritmanızın tarihsel verileri ön yargılıysa, ileride kurumlara kadınların ve erkeklerin kabulü konusunda kendi ön yargısını geliştirebilir. Diğer yol ise, insanlara göre değişen doğruluk kavramı, belki algoritma beyazların krediyi hak ettiği konusunda çok başarılıdır fakat beyaz olmayanlara karşı o kadar da başarılı değildir.” diyor.

Smith “İşte biz de buna bakıyoruz, sistemin nasıl hata yapabileceğini soruyoruz ve bu hataların insanları nasıl bölebileceğini araştırıyoruz.” dedi.

Algoritmik Ön Yargının Gerçek Dünyaya Etkisi

Mayıs 2016’da, kâr amacı gütmeyen bir haber kuruluşu olan ProPublica muhabirleri, COMPAS’ın doğruluğunu sınadı. Birkaç alogritma aracından bir tanesi, yeniden suç işleme eğilimini tahmin etmesi veya suçlu bir sanığın bir daha suç işleyip işlemeyeceğini tahmin etmesi için mahkeme tarafından kullanıldı. İlk sonuçlar ise hiç iç açıcı değil.

ProPublica araştırmacıları, algoritmanın yeniden suç işleme eğilimi tahminleriyle, gerçek yeniden suç eğilimi oranlarını iki yıl boyunca kıyasladı. Genel olarak, COMPAS %61 oranla doğru tahminlerde bulundu. Araştırmacılar ayrıca, şiddet temeli yeniden suç işleme eğilimi tahminlerinin sadece %20 oranla doğru tahmin edildiğini buldu.

Daha rahatsız edici olan ise sistemin, siyahilerin beyazlara kıyasla daha fazla yeniden suç işlemeye meyilli olduğunu tahmin etmesi. ProPublica’nın makalesine göre, algoritma açıkça ön yargılı bir ayrımcılık yapıyor.

COMPAS’ın yaratıcısı olan Northpointe şirketi ise cevap olarak farklı istatistiksel verilerle COMPAS’ın daha adil olduğuyla ilgili bir çalışma yayınladı. Şirket, ProPublica’ya, algoritma tarafından tahmin edilen formüllerin, sanık ve suç kaydı olanların cevaplarından oluşan 137 adet sorudan türetildiğini söyledi.

Algoritmik Ön Yargının Üstesinden Gelmek

İş algoritmik ön yargının çözümüne geldiğinde, BU-MIT araştırmacıları; sistemin adil yargılamadığı insan gruplarını ön yargılı olma ihtimalinin daha düşük olduğu bir sisteme gönderme üzerine bir metot geliştirdi. 

Araştırmacıların kafalarındaki soru ise farklı sistemlerin nasıl birlikte hareket edebileceği. Scheffler durumla ilgili olarak “Adaletin birçok farklı ölçüm şekli var ve sistemler birbirleriyle etkileşim halinde değiller. Yani daha adaletli olan sistemi nasıl elde edebileceğiz?” ifadelerini kullandı.

Kaynak : https://phys.org/news/2018-12-computer-aided-decisions-fair.html
10
3
1
0
0
Emoji İle Tepki Ver
10
3
1
0
0