Çocukların Çıplak Fotoğraflarını Otomatik Olarak Silecek Uygulama Geliştirildi: Ailesine Anında Haber Verilecek

13
5
4
2
1
Japonya'da bir şirket ve iki devlete bağlı kurumun iş birliği ile çocuk istismarının önlenmesine yardımcı olacak bir uygulama geliştirildi. Uygulama, çocukların çektiği çıplak fotoğrafları otomatik olarak algılıyor ve cihazdan siliyor. Ancak uygulamanın galeriyi sürekli olarak tarayacak ve çıplak fotoğrafları özellikle arayacak olması birtakım gizlilik endişelerini beraberinde getirdi.

Sosyal medya platformları günümüzde her ne kadar vakit geçirmek ve alternatif gelir oluşturmak gibi avantajlar sunuyor olsa da bazı ciddi sorunlara ve tartışmalara da ev sahipliği yapıyor. Bunlardan en fazla tartışılanı ise amaç bu olmasa da çocuk istismarına aracı platformlar haline dönüşmeleri.

Sosyal medya platformları bu duruma engel olmak için politikalarını sürekli olarak güncellemeye devam ederken Japonya’dan bu konunun çözümüne yardımcı olabilecek bir uygulamanın haberi geldi. Japonya’daki bir araştırma ekibi, 18 yaş altı bireylerin çıplak fotoğraf çekmeleri durumunda bu fotoğrafları otomatik olarak cihazdan silecek bir uygulama geliştirdi.

Ebeveynler, 'çıplak selfie' hakkında anında bilgilendiriliyor

Yapay zekadan faydalanan yeni uygulama, yetişkinlerin sosyal medya üzerinden çocuklarla iletişim kurması ve çocukların, çıplak fotoğraflarını göndermesini engellemek için geliştirildi. Uygulama, Tokyo merkezli Smartbooks, Fuijta Sağlık Üniversitesi ve yerel Nakamura polis merkezi ortaklığıyla hayat buldu.

Uygulama, 18 yaş altı çocukların kameradan çektiği çıplak fotoğrafları otomatik olarak tespit ediyor ve cihazdan siliyor. Bununla birlikte uygulama, fotoğrafları tespit etmesinin ardından çocuğun ebeveynlerine de bir uyarı mesajı gönderiyor. Yeni uygulamanın bu yıl sonuna kadar kullanıma açılması hedefleniyor.

Apple da benzer bir uygulama geliştirmiş, fakat tepkilerin ardından geri çekmişti: Peki aynı endişeler bu uygulama için de geçerli olur mu?

Çocuk istismarına karşı benzer bir önlem, daha önce Apple tarafından da sunulmuştu. Apple, iPhone'lardaki fotoğrafları tarayacak ve çocuk istismarına ilişkin görüntü bulması durumunda kolluk kuvvetlerini bilgilendirecekti. Fakat Apple'ın uygulaması, büyük bir kullanıcı gizliliği tartışmasıyla karşılaşmıştı. Apple, özelliği savunsa da yoğun tepkilerin ardından bu özelliği uygulamaya koymaktan vazgeçmişti.

Japonya'da geliştirilen uygulama, Apple'a benzer bir şekilde telefonun galerisini kontrol edecek. Bu galeriye eklenen her bir yeni fotoğraf taranacak ve çıplaklık içeren fotoğraflar tespit edilecek. Bu süreçte taranan fotoğrafların (aralarında çıplaklık içerenler de dahil) uygulama tarafından depolanıp depolanmayacağı konusunda net bir açıklama yok. Ayrıca Apple gibi birinci taraftan gelen benzer bir önlemin bile tartışma yaratması, bu uygulamanın da tartışmalardan nasibini alabileceğine işaret ediyor.

Kaynak : https://japantoday.com/category/national/app-developed-to-automatically-delete-children%27s-nude-selfies
13
5
4
2
1
Emoji İle Tepki Ver
13
5
4
2
1