Apple, ABD’li bir çocuk koruma grubunun iPhone için durdurulan çocuk pornografisi tarama özelliği üzerinde çalışmaya devam etme talebini reddetti. Apple veri koruma şefi Erik Neuenschwander bir mektupta, şirketin çeşitli “iyi nedenlerden” dolayı bu özelliğin geliştirilmesini durdurduğunu belirtti. Apple’ın iCloud’daki çocuklara yönelik cinsel istismar materyallerini (CSAM) tespit etmek için planladığı “karma istemci-sunucu yaklaşımı”, sonuçta “kullanıcı güvenliğini ve gizliliğini tehlikeye atmadan uygulanması imkansızdı.”
Duyuru
Bunun yerine yönetici, işletim sistemine entegre edilmiş çıplak filtreyle ilgili yeni Apple işlevlerine atıfta bulunuyor: Bu, iOS 17’den başlayarak 16 yaşına kadar çocuklar ve gençler için otomatik olarak etkinleştirilir ve yetişkinlerin de açma olanağı vardır. . iPhone’unuzu ilk kez Apple ayrıca filtreyi AirDrop ve fotoğraf seçici gibi diğer uygulamalara ve özelliklere de entegre ediyor ancak fotoğraf uygulamasının kendisine entegre etmiyor. Bu özelliğin üçüncü taraf geliştiriciler için de kullanılabileceği yeni bir arayüz var; Apple, bunun Discord gibi uygulamaların kullandığı şey olduğunu söylüyor.
Tarama fonksiyonunun uygulanması çağrısı
Filtre cihazda yerel olarak çalışır ve çıplak görüntüleri (ve videoları) bulanıklaştırmak için tasarlanmıştır; kullanıcılar yine de bunları basit bir dokunuşla görüntülemeyi seçebilir. Apple başlangıçta bu tür görüntüler alındığında veya gönderildiğinde ebeveynleri bilgilendirmek için 13 yaşın altındaki çocuklar için çıplak filtreyi kullanmayı amaçlıyordu, ancak eleştirilerin ardından bu plan iptal edildi. Neuenschwander, Wired tarafından yayınlanan mektubunda, bu özelliğin temel amacının, talep girişimlerini doğrudan durdurmak olduğunu açıkladı.
ABD kuruluşu “Heat Initiative”, Apple’dan önceden iCloud’da CSAM materyali aramasını ve kullanıcıların bu tür içerikleri bildirebilecekleri bir mekanizma entegre etmesini istedi. Girişimin başkanının mektubunda, bu taleplerin de kısa süre içinde kamuya açıklanacağı belirtildi ve Apple’ın başlangıçta planlanan CSAM tarama işlevini uygulamamasından dolayı hayal kırıklığına uğradığı belirtildi.
Apple’ın orijinal planı büyük eleştiri aldı
Yaklaşık iki yıl önce Apple, iCloud Fotoğrafları yüklendiğinde doğrudan kontrol etmesi gereken bir CSAM algılama aracı önerdi. Bunu yapmak için, iPhone’lardaki fotoğrafların, çeşitli kuruluşlar tarafından belgelenen kötü amaçlı materyallerin karmalarını içeren bir veritabanıyla karşılaştırılarak kontrol edildiği iddia edildi. Yaklaşık 30 isabetten sonra işletim sistemi Apple çalışanlarını bilgilendirecektir. Teknik incelemeye göre, fotoğraf malzemesinin düşük çözünürlüklü bir versiyonunun kodunu çözüp görüntüleyebilecekler. Materyalin gerçekten kötüye kullanılması durumunda, ABD’deki Apple çalışanları bunu NCMEC kuruluşuna bildirmelidir; bu kuruluş da kolluk kuvvetlerine bildirimde bulunabilir.
Duyuru
Apple başlangıçta bu yaklaşımın diğer sağlayıcılar arasında zaten popüler olan bulut CSAM taramasından daha gizlilik dostu olduğunu savundu. Proje, sivil haklar aktivistleri, güvenlik araştırmacıları, müşteriler ve çocuk koruma kuruluşları tarafından o kadar sert bir şekilde eleştirildi ki, Apple önce projeyi erteledi, ardından kendi açıklamalarına göre 2022 yılı sonunda tamamen askıya aldı.
Apple’ın gizlilik şefi, Apple’ın orijinal planına yönelik en yaygın eleştirilerden birini benimseyerek, “Bir içerik türünü taramak, kitlesel gözetimin kapısını açıyor ve içerik türleri ve kategorileri genelinde diğer şifreli mesajlaşma sistemlerini tarama arzusunu tetikleyebilir” diyor. Neuenschwander, bu tarama sistemleri bile mükemmel çalışmıyor ve “bebeklerinin yalnızca tamamen normal fotoğraflarını paylaşan” masum kullanıcıların “distopik ağların kurbanı” olabileceğine dair “diğer platformlardan belgelenmiş kanıtlar” var, diye yazıyor Neuenschwander.
(Ibe)
Haberin Sonu
Duyuru
Bunun yerine yönetici, işletim sistemine entegre edilmiş çıplak filtreyle ilgili yeni Apple işlevlerine atıfta bulunuyor: Bu, iOS 17’den başlayarak 16 yaşına kadar çocuklar ve gençler için otomatik olarak etkinleştirilir ve yetişkinlerin de açma olanağı vardır. . iPhone’unuzu ilk kez Apple ayrıca filtreyi AirDrop ve fotoğraf seçici gibi diğer uygulamalara ve özelliklere de entegre ediyor ancak fotoğraf uygulamasının kendisine entegre etmiyor. Bu özelliğin üçüncü taraf geliştiriciler için de kullanılabileceği yeni bir arayüz var; Apple, bunun Discord gibi uygulamaların kullandığı şey olduğunu söylüyor.
Tarama fonksiyonunun uygulanması çağrısı
Filtre cihazda yerel olarak çalışır ve çıplak görüntüleri (ve videoları) bulanıklaştırmak için tasarlanmıştır; kullanıcılar yine de bunları basit bir dokunuşla görüntülemeyi seçebilir. Apple başlangıçta bu tür görüntüler alındığında veya gönderildiğinde ebeveynleri bilgilendirmek için 13 yaşın altındaki çocuklar için çıplak filtreyi kullanmayı amaçlıyordu, ancak eleştirilerin ardından bu plan iptal edildi. Neuenschwander, Wired tarafından yayınlanan mektubunda, bu özelliğin temel amacının, talep girişimlerini doğrudan durdurmak olduğunu açıkladı.
ABD kuruluşu “Heat Initiative”, Apple’dan önceden iCloud’da CSAM materyali aramasını ve kullanıcıların bu tür içerikleri bildirebilecekleri bir mekanizma entegre etmesini istedi. Girişimin başkanının mektubunda, bu taleplerin de kısa süre içinde kamuya açıklanacağı belirtildi ve Apple’ın başlangıçta planlanan CSAM tarama işlevini uygulamamasından dolayı hayal kırıklığına uğradığı belirtildi.
Apple’ın orijinal planı büyük eleştiri aldı
Yaklaşık iki yıl önce Apple, iCloud Fotoğrafları yüklendiğinde doğrudan kontrol etmesi gereken bir CSAM algılama aracı önerdi. Bunu yapmak için, iPhone’lardaki fotoğrafların, çeşitli kuruluşlar tarafından belgelenen kötü amaçlı materyallerin karmalarını içeren bir veritabanıyla karşılaştırılarak kontrol edildiği iddia edildi. Yaklaşık 30 isabetten sonra işletim sistemi Apple çalışanlarını bilgilendirecektir. Teknik incelemeye göre, fotoğraf malzemesinin düşük çözünürlüklü bir versiyonunun kodunu çözüp görüntüleyebilecekler. Materyalin gerçekten kötüye kullanılması durumunda, ABD’deki Apple çalışanları bunu NCMEC kuruluşuna bildirmelidir; bu kuruluş da kolluk kuvvetlerine bildirimde bulunabilir.
Duyuru
Apple başlangıçta bu yaklaşımın diğer sağlayıcılar arasında zaten popüler olan bulut CSAM taramasından daha gizlilik dostu olduğunu savundu. Proje, sivil haklar aktivistleri, güvenlik araştırmacıları, müşteriler ve çocuk koruma kuruluşları tarafından o kadar sert bir şekilde eleştirildi ki, Apple önce projeyi erteledi, ardından kendi açıklamalarına göre 2022 yılı sonunda tamamen askıya aldı.
Apple’ın gizlilik şefi, Apple’ın orijinal planına yönelik en yaygın eleştirilerden birini benimseyerek, “Bir içerik türünü taramak, kitlesel gözetimin kapısını açıyor ve içerik türleri ve kategorileri genelinde diğer şifreli mesajlaşma sistemlerini tarama arzusunu tetikleyebilir” diyor. Neuenschwander, bu tarama sistemleri bile mükemmel çalışmıyor ve “bebeklerinin yalnızca tamamen normal fotoğraflarını paylaşan” masum kullanıcıların “distopik ağların kurbanı” olabileceğine dair “diğer platformlardan belgelenmiş kanıtlar” var, diye yazıyor Neuenschwander.
(Ibe)
Haberin Sonu