Apple'ın 'iCloud Fotoğraflarını Tarama' Kararı Sonrası STK'lar Devreye Girdi: İnsan Hakları İhlali Yapılıyor

18
4
3
0
0
ABD'de yer alan bazı sivil toplum örgütleri, Apple'ın çocuklara yönelik cinsel istismarı önlemek adına kullanıcılara sunduğu CSAM teknolojisini zararlı buldukları gerekçesiyle şirketi bundan vazgeçirmeye çalışıyor.

Teknoloji devi Apple, geçtiğimiz haftalarda çocuk istismarının önüne geçebilmek adına iCloud'a yüklenen fotoğrafların taranacağını açıklamıştı. CSAM adı verilen bu sistem, ilk başta her ne kadar yararlı gibi gözükse de insanlardan beklediği tepkiyi alamadı ve binlerce insan, CSAM'ın insan hakları ihlali olduğunu savunarak Apple'ın böyle bir şey yapmasını yanlış buldu.

Epic Games'in CEO'su, Alman politikacılar derken Apple'a karşı tepkiler çığ gibi büyümeye devam ediyor. Şimdi de Apple, kendini bu bu karardan vazgeçirmek için çağrıda bulunan sivil toplum kuruluşları ile karşı karşıya kaldı.

Özel fotoğrafların taranması hakkında: "CSAM sistemi, bazıları için feci sonuçlar doğurabilir"

apple csam

Geçtiğimiz günlerde sistemin nasıl çalıştığını ve iCloud kullanmayanların fotoğraflarının taranmayacağını açıklayan şirket, aynı zamanda CSAM'den elde ettikleri her veriyi hükümetle paylaşmayacaklarını belirtmişti. iOS 15 ve iPadOS 15 sürümlerinden itibaren kullanılacak bu özellik, bu sefer de politikacılar ve sivil toplum kuruluşları tarafından eleştirilmeye başlandı.

Alman politikacı Manuel Höferlin, Apple'ın iyi bir amaç doğrultusunda yola çıktığını ancak yönteminin son derece yanlış olduğunu belirtti. Sistemin güvenli ve gizli iletişim üzerinde bir darbe etkisi yaratacağını belirten politikacı, Apple'ın süreci iptal etmesini istiyor.

Aralarında Amerikan Sivil Özgürlükler Birliği, Electronic Frontier Foundation, Access Now, Privacy International ve Tor Project gibi isimler yer alan sivil toplum kuruluşları koalisyonu, geçtiğimiz Perşembe günü Apple'a CSAM'i iptal etmesi gerektiğini belirten açık bir mektup yolladı.

Apple'a gönderilen mektupta şu ifadeler yer aldı; "CSAM, her ne kadar çocukları korumayı ve çocuk cinsel istismarına yönelik içeriklerin yayılmasını azaltmayı amaçlasa da bunun bazı konuşmaları sansürlemek, dünyanın her yerindeki insanların mahremiyetini ve güvenliğini tehdit etmek ve bazıları için feci sonuçlara yol açmak için kullanılmasından endişe duyuyoruz."

Kaynak : https://www.theverge.com/2021/8/19/22632722/apple-child-abuse-scan-ios-abandon-request-privacy
18
4
3
0
0
Emoji İle Tepki Ver
18
4
3
0
0