Лазерно-лучевая болезнь

Голосовые помощники, работающие при подключении к интернету, вроде Алисы и Сири, вошли в нашу жизнь настолько плотно, что стали уже персонажами анекдотов. Распознавание команд достигло такого уровня, что простой запрос легче произнести, чем набрать. Сомнения в безопасности таких помощников, впрочем, были всегда — кто знает, куда уходят данные дальше? А несколько лет назад выяснилось, что большинство таких голосовых помощников принимают и неслышные для человека команды — тщательно сконструированный ультразвуковой сигнал тоже может быть воспринят телефоном как указание от ничего не подозревающего хозяина.

Обнародованная в начале ноября 2019 года уязвимость с незамысловатым названием «Световые команды» (Light Commands) развивает технику подачи невидимых и неслышимых команд. Совместное исследование Токийского университета Электронных коммуникаций и Мичиганского университета обнародовано на специально созданном сайте.

Уязвимость характерна для используемых сейчас MEMS-микрофонов. MEMS-микрофоны — микрофоны на основе микроэлектромеханических систем. Как выяснилось, современные микрофоны воспринимают не только звуковой сигнал, что логично, но и реагируют на направленный на них луч света, преобразуя его в электрический сигнал, аналогичный тому, который получается от голосов. Выяснилось, что подсвечивая такие микрофоны лазерным лучом, злоумышленник может подделать команду, и голосовые помощники воспримут ее как исходящую от законного владельца и выполнят. Дальнейшее зависит от того, насколько велики полномочия в конкретной системе у голосового помощника. В отличие от голоса, световую команду можно подать с большого расстояния — на момент подачи команды зафиксирован результат в 110 метров. Длина волны светового сигнала роли не играет — находящиеся на противоположных концах видимого спектра синие и красные лучи оказываются одинаково эффективными.

От осуществления атаки, по словам исследователей, не спасает распознавание голоса, которое к тому же не включено на многих устройствах по умолчанию, так что подделывать голос владельца, может, и не потребуется. Кое-где подделывать надо только обращение к помощнику для активации системы, а дальнейшие команды обрабатываются по умолчанию, что повышает порог для осуществления атаки, но незначительно. А команду активации можно подделать распространёнными сегодня средствами имитации голоса, и это отдельная проблема.

Уязвимость не ограничивается мобильными телефонами. В статье, подробно описывающей особенности воплощения атаки, демонстрируется, как с помощью атаки можно вскрывать «умные» замки и отпирать и угонять защищённые подобными устройствами автомобили.

Конечно, для подачи команды потребуется точно попасть в отверстие микрофона направленным лучом. С большого расстояния это непросто, луч придётся фокусировать, а сам микрофон ещё надо разглядеть — авторы упоминают штатив с установленным на нём биноклем или телескопом. Общая стоимость устройств, потребовавшихся для осуществления атаки — порядка 600 долларов, что, в общем-то, немного.

Задумались исследователи и о том, как избежать этой атаки. Можно попытаться так или иначе ввести второй фактор авторизации — например, голосовой помощник может задавать вопрос перед активацией и не включаться, не получив правильного ответа. Можно сопоставлять сигналы от разных микрофонов, благо в телефонах их обычно больше одного, и тем самым устранять аномальные команды, зафиксированные только на одном из микрофонов. При конструировании новых моделей устройств нужно будет учесть возможность световой команды и добавить непроницаемую для света мембрану или же просто игнорировать команды, поданные светом, а не звуком. Но уже выпущенные устройства таким образом не защитить.

Вряд ли Light Commands выйдет на верхние позиции в списке угроз, актуальных для пользователей. Но, тем не менее, угроза заслуживает того, чтобы учитывать её при проектировании «умных домов» и аналогичных систем.


Автор:  Дмитрий Белявский (ТЦИ)

Возврат к списку