banner
Центр новостей
Наши товары пользуются большой любовью у тех, кто их покупает.

Вниз по трубам: обычные трубы из ПВХ могут взломать системы голосовой идентификации

Aug 12, 2023

Шимаа Ахмед, аспирант, работающий в лаборатории профессора Касема Фаваза, нашел метод взлома автоматических систем идентификации динамиков с помощью трубы из ПВХ, которую можно найти в любом хозяйственном магазине. Тодд Браун

Исследователи ведут гонку вооружений с хакерами, чтобы предотвратить кражу данных. Их стандартные инструменты включают в себя такие стратегии, как системы многофакторной аутентификации, технологию отпечатков пальцев и сканирование сетчатки. Одним из набирающих популярность типов систем безопасности является автоматическая идентификация говорящего, которая использует голос человека в качестве пароля.

Эти системы, уже используемые для телефонного банкинга и других приложений, хорошо справляются с атаками, которые пытаются подделать голос пользователя посредством цифровых манипуляций. Но инженеры по цифровой безопасности из Университета Висконсин-Мэдисон обнаружили, что эти системы не столь надежны, когда дело доходит до новой аналоговой атаки. Они обнаружили, что разговор через специальные трубы из ПВХ — такие, которые можно найти в большинстве хозяйственных магазинов — может обмануть алгоритмы машинного обучения, которые поддерживают автоматические системы идентификации говорящего.

Кассам Фаваз — доцент кафедры электротехники и вычислительной техники. Фото: Алтея Дотзур

Команда, возглавляемая аспирантом Шимаа Ахмедом и Касемом Фавазом, профессором электротехники и компьютерной инженерии, представила свои результаты 9 августа на симпозиуме по безопасности Usenix в Анахайме, Калифорния.

Риски, связанные с дырами в аналоговой безопасности, могут иметь далеко идущие последствия. Ахмед отмечает, что многие коммерческие компании уже продают эту технологию, а среди первых клиентов – финансовые учреждения. Эта технология также используется для персональных помощников с поддержкой искусственного интеллекта, таких как Siri от Apple.

«Сейчас рекламируются такие системы, как безопасные, как отпечатки пальцев, но это не очень точно», — говорит Ахмед. «Все они подвержены атакам на идентификацию говорящего. Атака, которую мы разработали, очень дешева; просто купите трубку в хозяйственном магазине и измените свой голос».

Проект начался, когда команда начала проверять системы автоматической идентификации говорящих на наличие слабых мест. Когда они говорили ясно, модели вели себя так, как рекламировалось. Но когда они говорили руками или говорили в коробку вместо того, чтобы говорить ясно, модели вели себя не так, как ожидалось.

Ахмед исследовал, можно ли изменить резонанс или вибрации определенной частоты голоса, чтобы обойти систему безопасности. Поскольку ее работа началась, когда она застряла дома из-за COVID-19, Ахмед начал с разговора через трубки от бумажных полотенец, чтобы проверить свою идею. Позже, вернувшись в лабораторию, группа наняла Яша Вани, тогда студента, а теперь аспиранта, для помощи в модификации труб из ПВХ в UW Makerspace. Используя трубы различного диаметра, купленные в местном хозяйственном магазине, Ахмед, Яни и их команда изменяли длину и диаметр труб до тех пор, пока они не смогли добиться того же резонанса, который, по их словам, они пытались имитировать.

В конце концов, команда разработала алгоритм, который может рассчитать размеры ПВХ-трубы, необходимые для преобразования резонанса практически любого голоса для имитации другого. Фактически, исследователи успешно обманули системы безопасности с помощью атаки по ПВХ-трубке в 60 процентах случаев в тестовом наборе из 91 голоса, в то время как неизмененные имитаторы людей смогли обмануть системы только в 6 процентах случаев.

Поддельная атака работает по нескольким причинам. Во-первых, поскольку звук аналоговый, он обходит цифровые фильтры атак системы голосовой аутентификации. Во-вторых, трубка не преобразует один голос в точную копию другого, а вместо этого имитирует резонанс целевого голоса, чего достаточно, чтобы алгоритм машинного обучения неправильно классифицировал атакующий голос.

Фаваз говорит, что частью мотивации проекта является простое предупреждение сообщества безопасности о том, что голосовая идентификация не так безопасна, как многие думают, хотя он говорит, что многие исследователи уже знают о недостатках этой технологии.

У проекта есть и более масштабная цель.