Siri, Alexa и другие ассистенты подвержены атакам при помощи ультразвука

Кaк сooбщaeт издaниe BBC, гoлoсoвыe помощники Amazon, Apple и Google могут воспринимать команды в диапазоне, недоступном человеческому уху.

По данным исследователей, обнаруживших эту уязвимость, цифровые помощники могут быть взломаны при помощи команд, которые владельцы просто не услышат.

В ходе тестов   применялись звуковые частоты, которые используют для общения между собой дельфины. В результате, голосовой ассистент распознавал команду и набирал названный номер, или открывал указанный сайт. Ученые отметили, что существует реальная опасность взлома смартфонов с установленными голосовыми помощниками и устройств «умного» дома при помощи высокочастотных звуков, поскольку гаджет воспринимает их и интерпретирует, как человеческую речь. Поскольку человек эти команды не услышит, их можно встроить в видео или аудиофайл.

Инженеры   утверждают, что подобная атака не сработает, если цифровой ассистент настроен на распознавание голоса конкретного человека. Также существуют другие механизмы защиты. К примеру, для того, чтобы Siri запустила Safari и открыла определенный сайт, пользователю потребуется разблокировать iPhone. Помимо этого, Apple и Google позволяют отключить вызов помощника кодовой фразой и он не запустится без разрешения владельца.

Обнаружившие уязвимость эксперты   обратились к технологическим компаниям с просьбой обновить программное обеспечение, чтобы голосовые ассистенты игнорировали высокие частоты.

]]>

Комментирование и размещение ссылок запрещено.

Обсуждение закрыто.