Apple'ın cihazları ve iCloud'u çocuk pornografisi açısından taramama kararı ABD'de yeni bir davaya yol açtı: Apple, çocuk pornografisinin (CSAM) engellenmeden dağıtılabileceği kusurlu ürünleri bilerek sunmakla suçlanıyor. Bu, mağdurlara kalıcı zarar verilmesine yol açar ve ağır ihmaldir.
Duyuru
New York Times (“Amy” ve “Jessica” v. Apple, dava numarası 5:24-cv-8832, ABD Bölge Mahkemesi, Kuzey) toplu dava olarak kabul edilmesi gerektiğini, dolayısıyla zarar miktarının milyarlara ulaşabileceğini açıklıyor Kaliforniya Bölgesi).
Apple'ın eylemsizliğine eleştiri
Ağustos ayında açılan bir davaya benzer şekilde, bir Apple yöneticisinin bir meslektaşıyla yaptığı sohbette iCloud'un “çocuk pornografisi vb. dağıtmak için en iyi platform” olduğunu yazdığı bir kez daha alıntı yapıldı.
Diğer BT devlerinden farklı olarak Apple, PhotoDNA gibi teknikleri kullanarak iCloud içeriklerinin büyük ölçekli sunucu tarafı taramalarına güvenmiyor ve iCloud fotoğrafları artık isteğe bağlı olarak tamamen şifrelenebiliyor (uçtan uca şifreleme). Davaya göre bu, şirketin başarısızlığıydı. Mağdurlar “sonsuz bir kabus” olarak tanımlıyor.
Apple iddialar hakkında doğrudan yorum yapmadı ancak bir sözcü New York Times'a şirketin “tüm müşterilerin güvenliğinden ve mahremiyetinden ödün vermeden bu tür suçlarla mücadele ettiğini” söyledi. Apple, çocuk pornografisinin yayılmasını başlamadan önce engellemeyi amaçlayan güvenlik özelliklerine odaklanıyor.
Apple'ın CSAM tarama projesi iptal edildi
Yeni dava aynı zamanda Apple'ı dahili çocuk pornografisi tespit projesini kasıtlı olarak aksatmakla da suçluyor. Üç yıl önce Apple, rahatsız edici materyalleri doğrudan iPhone vb. üzerinde taramaya yönelik teknolojiyi tanıttı. iCloud'a yüklendiğinde. Veri koruma savunucularının, güvenlik araştırmacılarının, sivil haklar aktivistlerinin ve müşterilerin yoğun eleştirilerinin ardından proje sonunda sona erdi. O dönemde Apple'ın veri koruma yetkilisi bu yaklaşımın “kullanıcı güvenliğini ve mahremiyetini tehlikeye atmadan uygulanmasının imkansız” olduğunu itiraf etmişti. Toplu dava aynı zamanda şirketi cihazlar ve hizmetler genelinde yeni CSAM tarama mekanizmalarını uygulamaya zorlamayı da amaçlıyor.
(lbs)
Duyuru
New York Times (“Amy” ve “Jessica” v. Apple, dava numarası 5:24-cv-8832, ABD Bölge Mahkemesi, Kuzey) toplu dava olarak kabul edilmesi gerektiğini, dolayısıyla zarar miktarının milyarlara ulaşabileceğini açıklıyor Kaliforniya Bölgesi).
Apple'ın eylemsizliğine eleştiri
Ağustos ayında açılan bir davaya benzer şekilde, bir Apple yöneticisinin bir meslektaşıyla yaptığı sohbette iCloud'un “çocuk pornografisi vb. dağıtmak için en iyi platform” olduğunu yazdığı bir kez daha alıntı yapıldı.
Diğer BT devlerinden farklı olarak Apple, PhotoDNA gibi teknikleri kullanarak iCloud içeriklerinin büyük ölçekli sunucu tarafı taramalarına güvenmiyor ve iCloud fotoğrafları artık isteğe bağlı olarak tamamen şifrelenebiliyor (uçtan uca şifreleme). Davaya göre bu, şirketin başarısızlığıydı. Mağdurlar “sonsuz bir kabus” olarak tanımlıyor.
Apple iddialar hakkında doğrudan yorum yapmadı ancak bir sözcü New York Times'a şirketin “tüm müşterilerin güvenliğinden ve mahremiyetinden ödün vermeden bu tür suçlarla mücadele ettiğini” söyledi. Apple, çocuk pornografisinin yayılmasını başlamadan önce engellemeyi amaçlayan güvenlik özelliklerine odaklanıyor.
Apple'ın CSAM tarama projesi iptal edildi
Yeni dava aynı zamanda Apple'ı dahili çocuk pornografisi tespit projesini kasıtlı olarak aksatmakla da suçluyor. Üç yıl önce Apple, rahatsız edici materyalleri doğrudan iPhone vb. üzerinde taramaya yönelik teknolojiyi tanıttı. iCloud'a yüklendiğinde. Veri koruma savunucularının, güvenlik araştırmacılarının, sivil haklar aktivistlerinin ve müşterilerin yoğun eleştirilerinin ardından proje sonunda sona erdi. O dönemde Apple'ın veri koruma yetkilisi bu yaklaşımın “kullanıcı güvenliğini ve mahremiyetini tehlikeye atmadan uygulanmasının imkansız” olduğunu itiraf etmişti. Toplu dava aynı zamanda şirketi cihazlar ve hizmetler genelinde yeni CSAM tarama mekanizmalarını uygulamaya zorlamayı da amaçlıyor.
(lbs)