Sevdiğiniz sesli asistanınızın, istediğinizi yapmadığını hissettiğiniz oldu mu? Cevabınız evetse, bunun sebebi yanılmanız veya kotu bir aksanınızın olması olmayabilir Araştırmacılar, Siri ve Alexa gibi sesli asistanları insanlar tarafından duyulamayan komutlarla ve parazitlerle kontrol etmeyi başardılar
New York Times'a gore Kaliforniya Universitesi, Berkeley'deki araşırmacılar, muziğin veya bir konuşmanın icine doğrudan komutlar eklemeyi başardılar Bu komutlar, potansiyel olarak alışveriş listenize bir şeyler ekleyebiliyor veya telefonu kısmen kontrol edebiliyor
Bu, sadece laboratuvar ortamında test edilen bir şey Ama 2019'da da benzer bir araştırma yapan takımın uyelerinden Nicholas Carlini'nin soylediğine gore, bu deney ortamında yapılanı yapmak icin, kotu niyetli bazı kişiler de calışıyorlar
Carlini, sesli asistanları kotuye kullanmanın mumkun olduğunu gostermek istediklerini ve amaclarının bu konuda onlem alınmasını sağlamak olduğunu vurguluyor
New York Times'ın makalesine yanıt veren Apple, Amazon ve Google, akıllı hoparlorlerin guvenli olması icin her zaman onlemler alındığını soyluyorlar Apple, Homepod hoparlorunun kapı kilidi acmak gibi komutları engelleyecek şekilde tasarlandığını ve Siri'nin komutları dinlemeden once iPhone'un veya iPad'ın kilidinin acılmış olması gerektiğini ekliyor
Yine de, bu durum sesli asistanlardaki potansiyel sorunlara guzel bir vurgu yapıyor Gorunuşe bakılırsa firmaların, tum işletim sistemleri icin olduğu gibi sesli asistanlar icin de surekli guvenlik onlemlerini arttırması gerekecek
Onceki HaberFacebook Kendi Kripto Parasını Cıkarabilir! Sonraki HaberGercek Cercevesiz İlk Telefon Bu Olabilir
New York Times'a gore Kaliforniya Universitesi, Berkeley'deki araşırmacılar, muziğin veya bir konuşmanın icine doğrudan komutlar eklemeyi başardılar Bu komutlar, potansiyel olarak alışveriş listenize bir şeyler ekleyebiliyor veya telefonu kısmen kontrol edebiliyor
Bu, sadece laboratuvar ortamında test edilen bir şey Ama 2019'da da benzer bir araştırma yapan takımın uyelerinden Nicholas Carlini'nin soylediğine gore, bu deney ortamında yapılanı yapmak icin, kotu niyetli bazı kişiler de calışıyorlar
Carlini, sesli asistanları kotuye kullanmanın mumkun olduğunu gostermek istediklerini ve amaclarının bu konuda onlem alınmasını sağlamak olduğunu vurguluyor
New York Times'ın makalesine yanıt veren Apple, Amazon ve Google, akıllı hoparlorlerin guvenli olması icin her zaman onlemler alındığını soyluyorlar Apple, Homepod hoparlorunun kapı kilidi acmak gibi komutları engelleyecek şekilde tasarlandığını ve Siri'nin komutları dinlemeden once iPhone'un veya iPad'ın kilidinin acılmış olması gerektiğini ekliyor
Yine de, bu durum sesli asistanlardaki potansiyel sorunlara guzel bir vurgu yapıyor Gorunuşe bakılırsa firmaların, tum işletim sistemleri icin olduğu gibi sesli asistanlar icin de surekli guvenlik onlemlerini arttırması gerekecek
Onceki HaberFacebook Kendi Kripto Parasını Cıkarabilir! Sonraki HaberGercek Cercevesiz İlk Telefon Bu Olabilir