Оk, Гугл: голосовые помощники могут привести в дом грабителей

Современные смарт-гаджеты по нашей просьбе могут включить радио, провести поиск в интернете или открыть двери. Однако любую технику можно научиться контролировать, и тогда голосовые помощники вроде Siri или Google Assistant внезапно окажутся вашими врагами.

БЕЛЫЙ ШУМ. Опасения по поводу безопасности использования голосовых помощников возникли пару лет назад. В своих экспериментах исследователи из Китая и США установили, что смарт-помощнику можно передавать команды, не слышные для человеческого уха. Инженеры из Университета Беркли доказали, что подобные команды можно замаскировать под «белый шум».

Например, звучавший несколько секунд во время видеоролика на YouTube, такой сигнал заставлял голосового помощника пользователя открывать тот сайт, который ему приказывали экспериментаторы. Зритель ролика при этом никакой команды не слышал.

В другом эксперименте смартфон заставляли набирать чужой телефонный номер.

КАК ЭТО РАБОТАЕТ? Исследователи утверждают, что для устройства с распознаванием голоса важны сами звуки, а их скорость и громкость практически не имеют значения. Немного изменяя аудиофайлы, они сумели замаскировать фразу для человека, но оставить ее различимой для машины.

Китайские инженеры пошли еще дальше, заставив айфон жертвы звуковой атаки приглушать ответы помощника, чтобы владелец гаджета их не услышал. С помощью ультразвукового сигнала они могли управлять голосовой техникой в доме, находясь в двух десятках метров от него.

 КУПИТЕ ЭТО. Самым «невинным» применением подобных команд можно назвать переход на указанный в шуме вредоносный сайт. Исследователи предупреждают, что команду также можно спрятать в музыке: пока вы ее слушаете, ваш голосовой помощник получает команду от мошенников и покупает ненужные вам товары в онлайн-магазине. Таким же путем мошенники могут получить доступ к вашему онлайн-банкингу, личным фото и записям. Голосовой помощник может даже открыть грабителям двери вашего дома или автомобиля.

ЗАЩИЩАЕТЕСЬ? Компании, использующие технологии голосовых помощников, Amazon, Apple и Google, уверяют, что знают о подобных угрозах и уже работают над безопасностью своих гаджетов. Однако пока что это только одиночные разработки: Apple научила Siri реагировать на команды из «группы риска» (открыть сомнительный сайт, например) только в том случае, если iPhone или iPad будут разблокированы.

Amazon и Google учат свою продукцию реагировать только на голос владельца.

ОK, ГУГЛ. Одним из примеров взлома – реклама сети Burger King, которая содержала встроенную фразу «Ok, Google, что такое Whopper burger?» Голосовые помощники искали соответствующую страницу в «Википедии» и зачитывали ее вслух. Реклама не оправдала себя, так как раздраженные пользователи начали редактировать статью о бургере, добавляя в рецепт малоприятные ингредиенты.

Позже тот же трюк повторили создатели мультсериала SouthPark: во время одного из эпизодов у зрителей то и дело открывались страницы с непристойными изображениями.

По мнению исследователей, подобные случаи в будущем будут случаться чаще, а производители гаджетов вряд ли сумеют быстро разработать достаточно надежную защиту.

По материалам The New York Times

Поделиться
Выразить свое впечатление
Love
Haha
Wow
Sad
Angry

Добавить комментарий

опрос

Найважливіше — в одному листі. Новини, реформи, аналітика — коротко і по суті.

Підпишись, щоб бути в курсі.

Дізнавайся все найцікавіше першим — слідкуй за нашими новинами у соцмережах

Дякую, я вже з вами