Голосовые помощники Siri, Alexa и Google Assistant могут помогать хакерам красть данные пользователей

13 мая 2018 08:40 #68843 от ICT
Исследователи из калифорнийского университета в Беркли наглядно показали, каким образом хакеры могут красть данные пользователей, используя приложения с такими голосовыми помощниками как Siri, Alexa и Google Assistant. Пользователи даже не будут знать, что их голосовые помощники помогли украсть личные и платежные данные, перевели куда-то деньги со счета, оплатили чью-то покупку в интернет-магазине, поделились с кем-то информацией по кредитным картам и т.д. Все это можно осуществить с помощью секретных команд, неразличимых для восприятия человеческим ухом. Эти команды могут быть вставлены в музыкальные произведения, в видео на YouTube или быть просто неким шумом, который ваши устройства будут "слышать" и распознавать. И в этих звуках будут содержаться команды, которые отдадут управление в руки злоумышленников. Эксперты выявили этот критический недостаток в уязвимости у всех распространенных голосовых помощников. Достаточно, чтобы к смартфону, компьютеру или планшету были подключены наушники с микрофоном или умные колонки. Сигнал, переданный с помощью электромагнитных волн, преобразуется в электрический сигнал, который устройство распознает как звук микрофона. Для получения контроля над голосовым помощником не нужно дорогое и сложное оборудование. Достаточно иметь необходимую программу, антенну и усилитель сигнала. Секретные команды могут приказать голосовому помощнику открыть сайты с вредоносными программами, отправить спам или фишинговые писмьма по электронной почте, набрать нужный телефонный номер. Как отмечает The Daily Mail , все крупнейшие хайтек-гиганты - Apple, Google, Amazon - знают о существовании этой проблемы и работают над ней. К примеру, в случае с устройствами с IOS Siri реагирует даже при заблокированном экране смартфона, но она имеет функцию верификации голоса пользователя, поэтому хакерам не удастся так просто отдать ей команды. А пользователи Android могут отключат голосового помощника по умолчанию. В прошлом году исследователи из Китая уже обнаружили, что системы распознавания голоса способны реагировать на "неслышные" команды, отправленные с помощью ультразвуковых волн. Они назвали этот тип уязвимости DolphinAttack. В микрофонах, встроенных в устройства или подключенных к ним, используются мембраны, которые вибрируют в результате звуковых волн. Но если ухо человека не слышит звук с частотой выше 20 килогерц, то устройство все равно их принимает и распознает. Cвое "проникновение" в устройство исследователи продемонстрировали на iPhone и обнародовали видео: Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Голосовые помощники Alexa поссорились из-за алюминия (ВИДЕО)24.76Пятница, 08 декабря 2017
    Google официально признала: данные 53 млн пользователей попали к хакерам20.42Вторник, 11 декабря 2018
    Лазером можно взломать Alexa, Google Home и Siri19.93Четверг, 07 ноября 2019
    Apple и Meta* по ошибке передали хакерам данные пользователей16.69Четверг, 31 марта 2022
    Голосовые помощники умнеют на глазах16.56Среда, 01 марта 2023
    Голосовые помощники в телефоне и мессенджерах не уступают дорогу умным устройствам15.87Четверг, 14 декабря 2023
    Германия включит голосовые помощники и меню смарт ТВ в новый закон об онлайн-СМИ15.7Пятница, 28 февраля 2020
    «Телеспутник» и IoTraining приглашают на вебинар «Голосовые помощники: управление умным домом на русском»15.54Вторник, 06 августа 2019
    Успейте зарегистрироваться на важнейший вебинар сезона – «Голосовые помощники: управление умным домом на русском»15.38Понедельник, 12 августа 2019
    Успейте зарегистрироваться на важнейший вебинар сезона - "Голосовые помощники: управление "умным" домом на русском"15.38Вторник, 13 августа 2019

    Мы в соц. сетях