Forumda yenilikler devam etmektedir , çalışmalara devam ettiğimiz kısa süre içerisinde güzel bir görünüme sahip olduk daha iyisi için lütfen çalışmaların bitmesini bekleyiniz. Tıkla ve Git
x

Apple çalışanları, çocukların güvenliği için sunulan güncellemeden rahatsız

Apple çalışanları, çocukların güvenliği için sunulan güncellemeden rahatsız
0
43

morfeus

FD Üye
Katılım
Kas 12, 2021
Mesajlar
3
Etkileşim
4
Puan
38
Yaş
46
Konum
Rusya
F-D Coin
139
apple-calisanlari-cocuklarin-guvenligi-icin-sunulan-guncellemeden-rahatsiz.jpg



Geçtiğimiz günlerde Apple, çocuk istismarlarının önüne geçmek için iOS ve iPadOS cihazların iCloud’larında bulunan fotoğrafların yapay zeka yardımıyla taranacağını ve sakıncalı materyalleri tespit edeceğini duyurmuştu. Materyal tespit edildiğinde Apple, kâr amacı gütmeyen Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi‘ne (NCMEC) otomatik olarak bildirimde bulunacak. NCMEC, ABD’deki kolluk kuvvetleri ile ortaklaşa hareket eden bir kuruluş.

Baskıcı hükümetler bu özelliği istismar edebilir


Belirtilmemiş sayıdaki Apple çalışanı, CSAM (Child Sexual Abuse Materials) tespiti konusundaki endişelerini dile getirmek için Slack kanallarına başvurdu. Çalışanlar özellikle, hükümetlerin Apple’ı CSAM dışındaki içerikleri bulmak için kullanabileceği ve zorlayabileceği konusunda endişe duyuyor. Bazı çalışanlar, Apple’ın sektörde lider konumda olan gizlilik itibarına zarar vermesinden çekiniyor.

Reuters’in raporuna göre; “Kimliğinin açıklanmamasını isteyen çalışanlar Reuters’e verdiği demeçte, Apple çalışanlarının bir hafta önce açıklanan planla ilgili 800’den fazla mesajla Apple’ın dahili Slack kanalını doldurduğunu belirtti. Günlerce süren tartışmayı dahil olan çalışanlara göre, pek çok kişi sansür veya tutuklamalar için başka materyaller arayan baskıcı hükümetler tarafından bu özelliğin istismar edilebileceğine dair endişelerini dile getirdi.
Apple-CSAM-2.jpg
Çalışanlar, geçmişteki Apple güvenlik değişikliklerinin de çalışanlar arasında endişe uyandırdığını, ancak yeni tartışmanın hacminin ve süresinin şaşırtıcı olduğunu söyledi.”

Rapora göre, kullanıcı güvenliği ile ilgili rollerdeki Apple çalışanlarını protestonun bir parçası olmadığı düşünülüyor.

Geçen hafta duyurulmasından bu yana, Apple, bu sonbaharda iOS 15 ve iPadOS 15 ile piyasaya sürülmesi beklenen CSAM algılama planları nedeniyle eleştiri yağmuruna tutuldu. Endişeler, esas olarak, teknolojinin baskıcı hükümetler ve rejimler tarafından gelecekteki uygulamalar için kullanılabileceği şeklinde sürüyor.

Apple, CSAM materyalini tespit etmek için kullanılan cihaz teknolojisinin başka herhangi bir amaç için kullanılabileceği fikrine kesinlikle karşı çıkıyor. Bir de yayınlanan SSS belgesinde Apple, şiddetle hükümetler tarafından bu tür bir talebi reddedeceğini belirtiyor.
 

Similar threads

Apple, geçtiğimiz günlerde yeni bir özelliği yürürlüğe koyacağını duyurdu: Çocuk cinsel taciz materyali (Child Sexual Abuse Material - CSAM) tespit özelliği. Yani kullanıcı fotoğraflarını çocuk istismarına karşı kontrol etmek için iCloud'a yüklenen fotoğrafları otomatik olarak taramak. Şirket...
Cevaplar
0
Görüntüleme
55
858,496Konular
981,666Mesajlar
29,738Kullanıcılar
myanardag0Son üye
Üst Alt