Apple, çıplak içerik için bir raporlama özelliğini iMessage kripto mesajlaşma uygulamasına entegre ediyor. Guardian'ın haberine göre, iOS 18.2'den itibaren ilk kullanıcılar, işletim sistemi tarafından yerel olarak çıplak içerik olarak tanınan fotoğraf ve videoları doğrudan Apple'a bildirebilecek. Bu, tüm Apple işletim sistemlerinde yerleşik olan ve artık 13 yaşın altındaki çocuklar için varsayılan olarak etkinleştirilen “İletişim Güvenliği” özelliğinin bir parçasıdır. Ebeveynler ayrıca bu özelliği gençlerin cihazlarında ayarlayabilir ve isteğe bağlı olarak kendileri açıp kapatabilirler.
Duyuru
Kullanıcılar çıplak fotoğraf ve mesajları Apple'a iletebilecek
Sistem, iMessage aracılığıyla alınan çıplak bir fotoğrafı tespit ederse, bu fotoğraf otomatik olarak tanınmaz hale getiriliyor ve alıcı, hassas içerik konusunda uyarılıyor. Gelecekte bu noktada, alınan kayıtları Apple'a aktarmaya yönelik yeni bir işlev ortaya çıkacak. Guardian tarafından yayınlanan bir iPhone bildirim penceresi, fotoğraf veya videoların yanı sıra “sınırlı metin mesajları” ve ihbarcının adı veya hesabının da şirkete gönderildiğini belirtiyor. Apple'ın içeriği inceleyeceği ve muhtemelen harekete geçeceği belirtiliyor. Buna iMessage hesaplarının engellenmesi ve muhtemelen kolluk kuvvetlerine bilgi verilmesi de dahildir.
Guardian, yeni özelliğin ilk olarak Avustralya'da kullanıma sunulacağını çünkü mesajlaşma ve bulut hizmetlerine yönelik yeni yasal kuralların yakında geçerli olacağını belirtiyor. Ancak yeni raporlama fonksiyonunun dünya çapında tanıtılması bekleniyor.
Apple başlangıçta Avustralya'da (ve diğer ülkelerde) tasarıya, uçtan uca şifrelemeyle sağlanan iletişimin gizliliğini tehdit ettiğini öne sürerek karşı çıktı. Kanun artık sağlayıcılara, şifreleme arka kapısı olmadan yasa dışı içerikleri bildirmeleri için daha fazla alan tanıyor.
Apple başlangıçta iPhone'lardaki iCloud fotoğraflarını kontrol etmek istiyordu
Çocukların cinsel istismarı materyalleriyle (CSAM) daha iyi mücadele etmek için Apple, birkaç yıl önce iCloud fotoğraflarını iPhone'da yerel olarak taramayı ve arka planda bulunan CSAM içeriğini otomatik olarak Apple'a aktarmayı düşündü. Müşterilerden, güvenlik araştırmacılarından ve sivil haklar aktivistlerinden gelen yoğun eleştirilerin ardından şirket projeyi kapattı.
Çıplak filtre gibi paralel olarak sunulan çocuk koruma fonksiyonları da revize edilerek işletim sistemlerine entegre edildi. Kullanıcılar bu tür tanınmayan görsellere tıklayarak bunları hâlâ görüntüleyebilir. İOS 18'den başlayarak, 13 yaşın altındaki çocukların cihazlarında, ideal olarak yalnızca ebeveynlerin bildiği ekran süresi kodunun da girilmesi gerekmektedir.
Apple son zamanlarda pek çok kişi tarafından özellikle iCloud konusunda pedofili ile mücadelede yeterince çaba göstermemekle suçlanıyor. İddia makamına göre, burada paylaşılan albümler aracılığıyla saldırgan materyaller de dağıtılıyor. ABD'de açılan toplu dava, şirketi bu tür materyalleri görmezden gelmekle suçluyor.
(lbs)
Duyuru
Kullanıcılar çıplak fotoğraf ve mesajları Apple'a iletebilecek
Sistem, iMessage aracılığıyla alınan çıplak bir fotoğrafı tespit ederse, bu fotoğraf otomatik olarak tanınmaz hale getiriliyor ve alıcı, hassas içerik konusunda uyarılıyor. Gelecekte bu noktada, alınan kayıtları Apple'a aktarmaya yönelik yeni bir işlev ortaya çıkacak. Guardian tarafından yayınlanan bir iPhone bildirim penceresi, fotoğraf veya videoların yanı sıra “sınırlı metin mesajları” ve ihbarcının adı veya hesabının da şirkete gönderildiğini belirtiyor. Apple'ın içeriği inceleyeceği ve muhtemelen harekete geçeceği belirtiliyor. Buna iMessage hesaplarının engellenmesi ve muhtemelen kolluk kuvvetlerine bilgi verilmesi de dahildir.
Guardian, yeni özelliğin ilk olarak Avustralya'da kullanıma sunulacağını çünkü mesajlaşma ve bulut hizmetlerine yönelik yeni yasal kuralların yakında geçerli olacağını belirtiyor. Ancak yeni raporlama fonksiyonunun dünya çapında tanıtılması bekleniyor.
Apple başlangıçta Avustralya'da (ve diğer ülkelerde) tasarıya, uçtan uca şifrelemeyle sağlanan iletişimin gizliliğini tehdit ettiğini öne sürerek karşı çıktı. Kanun artık sağlayıcılara, şifreleme arka kapısı olmadan yasa dışı içerikleri bildirmeleri için daha fazla alan tanıyor.
Apple başlangıçta iPhone'lardaki iCloud fotoğraflarını kontrol etmek istiyordu
Çocukların cinsel istismarı materyalleriyle (CSAM) daha iyi mücadele etmek için Apple, birkaç yıl önce iCloud fotoğraflarını iPhone'da yerel olarak taramayı ve arka planda bulunan CSAM içeriğini otomatik olarak Apple'a aktarmayı düşündü. Müşterilerden, güvenlik araştırmacılarından ve sivil haklar aktivistlerinden gelen yoğun eleştirilerin ardından şirket projeyi kapattı.
Çıplak filtre gibi paralel olarak sunulan çocuk koruma fonksiyonları da revize edilerek işletim sistemlerine entegre edildi. Kullanıcılar bu tür tanınmayan görsellere tıklayarak bunları hâlâ görüntüleyebilir. İOS 18'den başlayarak, 13 yaşın altındaki çocukların cihazlarında, ideal olarak yalnızca ebeveynlerin bildiği ekran süresi kodunun da girilmesi gerekmektedir.
Apple son zamanlarda pek çok kişi tarafından özellikle iCloud konusunda pedofili ile mücadelede yeterince çaba göstermemekle suçlanıyor. İddia makamına göre, burada paylaşılan albümler aracılığıyla saldırgan materyaller de dağıtılıyor. ABD'de açılan toplu dava, şirketi bu tür materyalleri görmezden gelmekle suçluyor.
(lbs)