Forumda yenilikler devam etmektedir , çalışmalara devam ettiğimiz kısa süre içerisinde güzel bir görünüme sahip olduk daha iyisi için lütfen çalışmaların bitmesini bekleyiniz. Tıkla ve Git
x

Son konular

Apple, çocuk güvenliği hakkında yeni bilgiler verdi

Apple, çocuk güvenliği hakkında yeni bilgiler verdi
0
21

morfeus

FD Üye
Katılım
Kas 12, 2021
Mesajlar
3
Etkileşim
4
Puan
38
Yaş
46
Konum
Rusya
F-D Coin
139
Apple-CSAM-1.jpg



Apple, güvenlik konusunda tüm cihazlarına en iyi korumayı vaat ediyor. Bugüne kadar iPhone’larıyla kullanıcılarına güven veren üretici, yeni yazılımlarıyla bunu daha da iyi bir hale getiriyor.

Bilindiği üzere Apple, kısa süre önce çocuk cinsel istismarlarına karşı yeni bir özelliğini duyurdu. CSAM ismi verilen bu özellik, iOS 15 ile beraber desteklenen tüm modellere sunulacak. Fakat kullanıcıların henüz bu yenilik hakkında kafalarında çok fazla soru işareti bulunuyordu. Neyse ki Apple kısa süre önce gerçekleştirdiği bir toplantı da tüm merakları giderdi.

Apple’ın yeni CSAM özelliği, yalnızca iCloud’daki fotoğraflarda çalışacak


Apple, bugün yeni CSAM algılaması hakkında kullanıcılara bazı bilgiler verdi. Bu bağlamda iOS 15 ile beraber sunulacak olan bu özellik, yalnızca iCloud Fotoğrafları’nda depolanan resimlerde geçerli olacak. Ancak firma ilerleyen zamanlarda bunun videolar içinde olabileceğinin sinyallerini verdi.
Apple-CSAM.jpg
Öte yandan ABD’li üretici, CSAM özelliğinin nasıl devre dışı bırakıldığına da yine dikkat çekti. Bu bağlamda kullanıcılar yeni güvenlik özelliğini kullanmayı tercih etmez ise, iCloud Fotoğraflar’ı devre dışı bırakması yetecektir. Böylece uygulama arka planda çalışmaz ve herhangi bir verilerinize de erişmez.

Sunucu taraflı çalışan bu özellik, alıcıya gelen resimleri otomatik olarak tarayarak denetleyecek. Eğer burada çocuk istismarını tetikleyen bir görsel olduğunda o resim otomatik olarak bulanıklaştırılacak ve kullanıcıya uyarı olarak bildirilecek.

Apple’a göre CSAM algılama sistemi, diğer şirketler tarafından kullanılan sunucu taraflı uygulamalardan çok daha iyi. Şirket diğer uygulamaların her fotoğrafı taradığını öne sürerken, kendi algılama sistemlerinin ise sadece CSAM görüntüleri içeren fotoğraflarda çalışacağını ifade etti.
 

Similar threads

Apple, geçtiğimiz günlerde yeni bir özelliği yürürlüğe koyacağını duyurdu: Çocuk cinsel taciz materyali (Child Sexual Abuse Material - CSAM) tespit özelliği. Yani kullanıcı fotoğraflarını çocuk istismarına karşı kontrol etmek için iCloud'a yüklenen fotoğrafları otomatik olarak taramak. Şirket...
Cevaplar
0
Görüntüleme
55
Güncellemeler konusunda aktif olan Apple, geliştiriciler için yeni beta sürümleri yayınlamaya devam ediyor. Son olarak çeşitli iyileştirmelerle iOS 15.2 beta 1 sürümünü piyasaya süren üretici, şimdi ise ikinci beta sürümü piyasaya sürdü. iOS 15.2 beta 2 güncellemesi, birkaç yenilikle...
Cevaplar
0
Görüntüleme
66
Geçtiğimiz günlerde Apple, çocuk istismarlarının önüne geçmek için iOS ve iPadOS cihazların iCloud’larında bulunan fotoğrafların yapay zeka yardımıyla taranacağını ve sakıncalı materyalleri tespit edeceğini duyurmuştu. Materyal tespit edildiğinde Apple, kâr amacı gütmeyen Ulusal Kayıp ve...
Cevaplar
0
Görüntüleme
43
Kullanıcılarının güvenliği konusunda bir hayli çaba sarf eden Apple, geçtiğimiz hafta çocuk istismarını engellemeye yönelik yeni özelliği CSAM'i duyurmuştu. Bu özellik, bu yılın son aylarından itibaren iCloud sistemine yüklenen fotoğrafları tarayacak ve çocuk istismarına yönelik bir fotoğraf...
Cevaplar
0
Görüntüleme
52
ABD merkezli teknoloji devi Apple, bundan bir süre önce çok tartışılan bir karar aldığını duyurmuştu. Şirket, aldığı bu karar kapsamında iCloud'a yüklenen fotoğraf ve videoları tek tek tarayacak, çocuk istismarına yönelik bir içeriğin tespit edilmesi durumunda ise kolluk kuvvetlerine otomatik...
Cevaplar
0
Görüntüleme
32
858,496Konular
981,660Mesajlar
29,728Kullanıcılar
berat21321Son üye
Üst Alt