Apple'dan çocuk istismarına karşı yeni sistem: Hem takdir hem endişe var

6 Ağustos 2021

Güncelleme: 6 Ağustos 2021

A
A

Apple, çocuklara yönelik cinsel istismar materyallerinin (CSAM) yayılmasını önlemek için iPhone'ları tarayabileceği bir sistem geliştirdi.

ZgotmplZ
Apple, iPhone ve iPad'lerde çocuk istismarı görsellerini tespit edecek.

Amerikalı tüketici elektroniği şirketi Apple, çocuklara yönelik cinsel istismar materyallerinin (CSAM) yayılmasını önlemek için iPhone'ları tarayabilecek bir sistem geliştirdiğini bildirdi.

ABD'DEN BAŞLAYACAK

Bir süredir konu üzerinde çalıştıklarını belirten Apple yetkilileri, ABD'li müşterilerin cihazlarında çocuklara yönelik cinsel istismar görüntüleri olup olmadığını tarayacak sistemin ayrıntılarını duyurdu.

NE ZAMAN HİZMETE ALINACAK?

2021’in sonlarında piyasaya sürmeye hazırlandığı iOS ve iPadOS'un yeni sürümlerinde,

SİSTEM NASIL ÇALIŞACAK?

Herhangi bir görüntü iCloud Photos'a (Apple cihazlarla çekilen tüm görüntüleri otomatik olarak saklayan sistem) kaydedilmeden önce, sistem tarafından bilinen CSAM ile eşleştirilecek. Bir eşleşme bulunduğunda ise, insan inceleme görevlisi devreye girerek kullanıcıyı değerlendirecek ve kolluk kuvvetlerine bildirecek.

ABD’de, Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından çocukların cinsel istismara uğradığı görüntülerin derlendiği bir veri tabanı bulunuyor. Apple’ın sistemi, bu veri tabanına erişerek söz konusu görüntüleri sayısal kodlar olan "karmalara" çevirecek ve Apple cihazlarındaki görüntüyle eşleştirilecek.

Siri'nin, CSAM ile ilgili aramalarla ilgili kaynaklar ve yardım sağlayacacağı da kaydedildi. / Apple
GİZLİLİK İHLALİ ENDİŞESİ

Apple’ın çocukları korumaya yönelik bu hamlesi birçok kişi tarafından takdir toplasa da, bu sistemin büyük bir gizlilik ihlali oluşturacağına dair ciddi endişeler var.

Uzmanlara göre, bu sistemle siyasi konuşmalar gibi bazı içerikler taranabilir ve otoriter hükümetler vatandaşlarını takip edebilmek için bu teknolojiyi kullanabilir.

Gizlilik ihlali endişelerinin yersiz olduğunu savunan Apple, sistemin ciddi ölçüde gizlilik avantajına sahip olduğunu söyledi. Apple’ın iddiasına göre; şirket, kullanıcıların fotoğraflarını ya da videolarını yalnızca iCloud Photos hesaplarında bir CSAM koleksiyonu varsa görebilecek.

Her eşleşmeyi doğrulamak için manuel incelemenin devreye gireceğini belirten şirket, inceleme sonuçlarından tamamen emin olduktan sonra kullanıcı hesabını devre dışı bırakabileceklerini ve kolluk kuvvetlerine rapor vereceklerini belirtti.

İLGİNİZİ ÇEKEBİLİR

İLGİLİ HABERLER


Yorum Yap

Yorum yapabilmek için giriş yapmanız gerekmektedir.Giriş yapmak için tıklayınız.

Tüm Yorumlar