34,8953$% 0.02
36,7962€% 0.28
3.042,05%-0,11
4.959,00%-0,10
19.839,00%-0,09
2.713,18%-0,13
Apple, çocuk istismarı içeriği (CSAM) konusunda daha fazla önlem almaması nedeniyle dava ediliyor. Davada, Apple’ın bu materyallerin yayılmasını engellemek için yeterince çaba göstermediği ve bunun, mağdurların yaşadıkları travmaları yeniden yaşamalarına sebep olduğu iddia ediliyor. Apple, 2021 yılında bu tür içerikleri tespit etmek için bir sistem geliştireceğini duyurmuş, ancak gelen eleştiriler üzerine planlarını askıya almıştı.
2021’de Duyurulan Sistem ve Eleştiriler
Apple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer kuruluşlarla iş birliği içinde, iCloud kütüphanelerindeki bilinen CSAM içeriklerini tespit etmek için bir sistem geliştirdiğini açıklamıştı. Bu sistem, kullanıcıların yüklediği içerikleri NCMEC tarafından sağlanan dijital imzalarla karşılaştırmayı öngörüyordu. Ancak, bu teknolojiye yönelik güvenlik ve gizlilik kaygıları yoğun tepki topladı.
Gizlilik savunucuları, sistemin hükümetlerin kullanıcıları izlemek için bir arka kapı olarak kullanabileceğini ve bu durumun kötüye kullanım risklerini artıracağını savundu. Eleştirilerin artmasıyla Apple, planlarını rafa kaldırdı ve projeyi hayata geçirmedi.
Mağdurların Travmaları Yeniden Canlanıyor
Davanın merkezinde, 27 yaşında bir kadının yaşadığı acı yer alıyor. Bebekken bir akrabası tarafından istismara uğrayan ve görüntüleri çevrimiçi paylaşılan kadın, neredeyse her gün bu görüntülerle ilgili yeni bir hukuki süreç haberi aldığını belirtti. Bu bildirimlerin her biri, kadının geçmiş travmalarını yeniden yaşamasına neden oluyor.
Davanın avukatı James Marsh, bu tür durumlarda Apple gibi teknoloji şirketlerinin sorumluluğunun arttığını vurgulayarak, “Bu davada tazminat almaya hak kazanabilecek potansiyel 2.680 mağdur var” dedi.
Apple’ın Açıklaması ve Önceki Dava
Apple, TechCrunch’a yaptığı açıklamada, güvenlik ve gizlilikten ödün vermeden CSAM içerikleriyle mücadele etmeye devam ettiklerini ifade etti. Şirket, dijital haklar ve güvenliği dengelemeye çalıştıklarını belirtti.
Ağustos ayında da benzer bir dava açılmıştı. 9 yaşındaki bir kız çocuğu ve vasisi, Apple’ı iCloud’daki CSAM içeriğini ele almakta yetersiz kalmakla suçlamıştı. Bu dava, teknoloji şirketlerinin çocuk istismarıyla ilgili içeriklerin yayılmasını önleme konusundaki sorumluluklarının sorgulandığı bir başka örnek oldu.
Hükümet Gözetimi Eleştirisi ve Tartışmalar
Apple’ın bu sistemi geliştirmemesinin arkasında yatan ana neden, kullanıcıların gizlilik haklarını ihlal etme riskiydi. Teknoloji şirketleri, hem hükümetler hem de kullanıcılar tarafından iki farklı uçta baskı altında kalıyor. Bir yanda, CSAM içeriklerinin önlenmesi için daha sıkı denetim istenirken; diğer yanda, kullanıcı verilerinin gizliliği konusunda hassasiyet talep ediliyor.
Teknoloji Şirketlerinin Sorumluluğu
Bu dava, teknoloji şirketlerinin sorumluluğunu yeniden gündeme getirdi. Apple gibi dev şirketlerin, kullanıcı verilerini koruma ve aynı zamanda yasa dışı içeriklerin yayılmasını önleme konusunda daha fazla çözüm geliştirmesi bekleniyor.
Davanın sonucunda Apple’ın nasıl bir adım atacağı merak konusu. Şirketin gizlilik savunucuları ve mağdurların hakları arasında nasıl bir denge kuracağı ise zamanla netleşecek.
WhatsApp’tan Eski iPhone Modellerine Kötü Haber: Destek Sona Eriyor