Apple, Çocuk Koruma Özelliklerini Erteledi

blank
Apple, Çocuk Koruma Özelliklerini Erteledi

İçerik: Apple, Çocuk Koruma Özelliklerini Erteledi

Apple, Çocuk Koruma Özelliklerini Erteledi. Apple, değişikliklerin kullanıcı gizliliğini azaltabileceği yönündeki yoğun eleştirilerin ardından, kullanıcıların fotoğraflarını çocuk cinsel istismarı materyali (CSAM) için tarayacak tartışmalı bir özellik de dahil olmak üzere geçen ay duyurduğu çocuk koruma özelliklerini erteliyor. Değişikliklerin bu yıl içinde kullanıma sunulması planlanıyordu.

Apple, The Verge’e yaptığı açıklamada, “Geçen ay, çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya ve Çocukların Cinsel İstismarı Malzemesinin yayılmasını sınırlamaya yardımcı olmayı amaçlayan özellikler için planlarımızı duyurduk.” Dedi. “Müşterilerden, savunma gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.”

Apple’ın çocuklara yönelik cinsel istismar materyallerinin (CSAM) yayılmasını azaltmayı amaçlayan değişikliklerle ilgili orijinal basın bülteninde, sayfanın üst kısmında benzer bir açıklama yer alıyor. Bu sürüm, çalışmalarda üç büyük değişikliği detaylandırdı. Arama ve Siri’de yapılan bir değişiklik, bir kullanıcı bununla ilgili bilgi aradığında CSAM’i önlemek için kaynaklara işaret eder.

Diğer iki değişiklik daha önemli bir incelemeye tabi tutuldu. Biri, çocukları müstehcen fotoğraflar alırken veya gönderirken ebeveynleri uyarır ve bu görüntüleri çocuklar için bulanıklaştırır. Diğeri, bir kullanıcının CSAM için iCloud Fotoğrafları’nda saklanan görüntüleri taramış ve bunları Apple moderatörlerine rapor etmiş ve bu moderatörler daha sonra raporları Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne veya NCMEC’e yönlendirebilirdi.

Apple’ın tartışmalı yeni çocuk koruma özellikleri açıklandı
Apple, kullanıcı gizliliğini zayıflatmamasını sağlamak için iCloud Fotoğraf tarama sistemini ayrıntılı olarak açıkladı. Kısacası, iOS aygıtınızdaki iCloud Fotoğrafları’nda depolanan fotoğrafları taradı ve bu fotoğrafları, NCMEC ve diğer çocuk güvenliği kuruluşlarından bilinen CSAM görüntü karmalarının bir veritabanıyla birlikte değerlendirecekti.

Yine de pek çok gizlilik ve güvenlik uzmanı, yeni sistem için şirketi ağır bir şekilde eleştirdi ve bunun cihaz üzerinde bir gözetim sistemi oluşturabileceğini ve kullanıcıların cihaz gizliliğini korumak için Apple’a duydukları güveni ihlal ettiğini savundu.

Electronic Frontier Foundation, 5 Ağustos’ta yaptığı açıklamada, yeni sistemin iyi niyetli olmasına rağmen, “habercinin şifrelemesinin temel vaatlerini bozacağını ve daha geniş suistimallere kapı açacağını” söyledi.

Stratechery’den Ben Thompson kendi eleştirisinde, “Bu konuda hiçbirimizin söz hakkı olmadan, Apple, sizin ve benim sahip olduğumuz ve işlettiğimiz telefondan ödün veriyor” dedi.

0 0 Puanlar
Konu Puanı

Teknoloji.news: Apple, Çocuk Koruma Özelliklerini Erteledi

Hakkında Taylan Özgür İnal

blank

Tekrar kontrol edin

blank

Whatsapp Görüntüler ve Videolar İçin Önizleme Özelliği Geliştirdi

Whatsapp Görüntüler ve Videolar İçin Önizleme Özelliği Geliştirdi. WhatsApp, yeni bir rapora göre, Android uygulamasında …

guest
0 Yorum
Satır içi geri bildirimler
Bütün yorumları gör