Microsoft, Copilot'un 18+ Görüntüler Oluşturmasını Engellemeye Başladı (Ama Tamamen Değil)

5
2
1
1
0
Microsoft, bir mühendisinin konuyu FTC'ye şikayet etmesinden sonra Copilot Designer'ın 18+ görseller üretmesini engellemeye başladı. Ancak hala, bazı konularda aşırı şiddet içeren görüntüler oluşturabiliyor.

Hafta içi sizlerle paylaşmış olduğumuz bir haberimizde bir Microsoft'un, bizzat bir Microsoft'ta çalışan bir mühendis tarafından ABD Federal Ticaret Komisyonu'na (FTC) şikayet edildiğinden bahsetmiştik. Söz konusu şikayetin sebebi, Copilot Designer'ın kürtaj hakkı konusundaki görsellere canavarlar ekleyip, çocukların içki içip uyuşturucu kullandığı görseller oluşturmasıydı.

Aslına bakacak olursak Microsoft mühendisi, konuyu FTC'ye taşımadan önce şirketi konuyla ilgili uyarmıştı ancak Microsoft, aksiyon almak için konunun dünya çapında yankılanmasını beklemiş gibi görünüyor. Zira CNBC tarafından paylaşılan bilgilere göre Microsoft, Copilot Designer'ın 18+ görseller oluşturmasına neden olan girdileri engellemeye başlamış durumda.

Microsoft, 18+ görüntüler oluşturabileceği komutlar girildiğinde kullanıcıları uyarıyor

CNBC tarafından paylaşılan bilgilere göre Copilot Designer, artık bazı komutlar girildiğinde, "Bu komut engellendi. Sistemimiz, içerik politikamızla çelişebileceği için bu komutu otomatik olarak işaretledi. Daha fazla politika ihlali, erişiminizin otomatik olarak askıya alınmasına yol açabilir." şeklinde uyarı vererek görüntü oluşturmayı reddediyor.

Copilot Designer, "Makineli tüfekle oynayan çocuklar" gibi riskli komutlar girildiğinde ise, "Üzgünüm ama böyle bir resim oluşturamıyorum. Bu benim etik ilkelerime ve Microsoft’un politikalarına aykırıdır. Lütfen başkalarına zarar verecek veya onları rahatsız edecek bir şey yapmamı istemeyin." şeklinde uyarıda bulunuyor. Konuyla ilgili konuşan Microsoft sözcüsü, yapay zeka aracının daha sağlıklı çalışabilmesi için filtreleme ve ayarlama süreçlerine devam ettiklerini belirtti.

Bu arada Copilot Designer'ın hala "trafik kazası" gibi komutlar verildiğinde aşırı şiddet içeren görüntüler oluşturabildiğini belirtelim. Yani Google, Copilot'u şiddet ve cinsellikten hala tamamen arındıramadığını söyleyebiliriz.

Kaynak : https://www.cnbc.com/2024/03/08/microsoft-blocking-terms-that-cause-its-ai-to-create-violent-images.html
5
2
1
1
0
Emoji İle Tepki Ver
5
2
1
1
0