Контакты
Подписка 2024
ITSEC 2024
Персональные данные в 2025 году: новые требования и инструменты. 16 октября, Москва, Форум ITSEC 2024
Регистрируйтесь и приходите!

Киберпреступники научились использовать ИИ для подделки голосов

22/07/19

HMV

Современные технологии искусственного интеллекта могут быть использованы для машинного обучения систем, которые впоследствии могут использоваться для полноценной имитации речи любого человека, включая топ-менеджеров и даже гендиректора любой компании.

Об этом заявили представители компании Symantec по итогам собственного расследования ряда киберпреступлений с использованием поддельных голосов ряда топ-менеджеров ряда компаний. По мнению аналитиков Symantec, такие системы могут использоваться кибермошенниками для хищения различных активов, включая финансы, корпоративную и частную информацию.

По данным Symantec, технологиях уже использовалась для хищения «миллионов долларов». Аналитики компании сообщили о как минимум трех случаях, когда поддельные голоса гендиректоров были применены для обманах глав финансовых отделов компаний с целью мошеннического вывода денежных средств. Названия пострадавших компаний в Symantec не назвали.

Все, что нужно для «тренинга» технологии «глубокого поддельного аудио» – это «достаточное количество» аудиозаписей предполагаемой жертвы, отмечают в Symantec. Далее искусственный интеллект использует аудио для тренинга двух так называемых «генеративных состязательных сетей» (GAN). В процессе обучения две нейросети такого типа «конкурируют» друг с другом: одна генерирует подделки, другая пытается отличить подделку от настоящего образца данных, и в процессе обе сети учатся на своих ошибках.

В случае преступлений против глав компаний источниками аудио для ИИ-тренинга могут выступать многочисленные записи голоса в открытом доступе – корпоративные видео, аудиозаписи квартальных конференций для инвесторов, публичные выступления, доклады на конференциях, презентации и т.п.

По словам доктора Хью Томсона (Hugh Thompson), главного технического директора Symantec, технологии моделирования и подделки голоса в настоящее время могут быть весьма близки к совершенству.

По его словам, в процессе имитации голоса кибермошенники используют самые разнообразные ухищрения. Например, специфические фоновые шумы позволяют замаскировать манеру произношения слогов и слов в наименее убедительных местах. Для таких целей используется имитация прерывистой сотовой связи или фоновый шум в оживленном людном месте.

По мнению доктора Александера Адама (Alexander Adam), специалиста по данным при ИИ-подразделении Symantec, для производства действительно качественных подделок аудио требуются значительные временные и финансовые ресурсы.

«Тренинг моделей может обойтись в тысячи долларов, поскольку для этого необходимы значительные вычислительные мощности. Человеческий слух очень чувствителен в широком частотном диапазоне, так что на моделирование действительно реалистичного звучания уйдет изрядно времени», отметил др. Александер Адам.

По его словам, в некоторых случаях на создание достаточно реалистичного голосового профиля может понадобиться всего 20 минут аудиозаписей. Тем не менее, для полноценной имитации реалистичных ритмов и живых интонаций речевых паттернов поддельного аудио понадобятся часы исходных записей с хорошим качеством.

В отличие от поддельного видео, технология имитации голоса имеет значительно больший потенциал для мошеннических махинаций. Так, в отличие от подделки видео, где «натренированная модель» должна заместить собой исходное видео для подделки лица, поддельный аудио профиль может использоваться даже с давно известной технологией преобразования текста в голос.

И как с этим бороться

По мнению специалистов Symantec, руководящему звену компаний, имеющему доступ к распоряжению финансами, следует серьезно проанализировать аудиозаписи своих выступлений в публичном доступе. Отныне злоумышленники могут получить необходимые им образцы голоса даже в телефонном разговора или в личной беседе.

Финансовым отделам компаний аналитики Symantec советуют переосмыслить уровень угроз от киберпреступлений с использованием поддельного аудио, и серьезнее относится к защите доступа к конфиденциальным данным и финансам компании.

В Symantec заявили, что в настоящее время разрабатывают методы анализа аудио, которые позволили бы проверять телефонные звонки и оценивать вероятность их подлинности. Существующие технологии для предотвращения кибератак с применением поддельного аудио, по мнению аналитиков компании, пока что слишком дорогостоящи.

Одним из возможных способов решения проблемы в Symantec называют использование сертифицированных систем связи для коммуникаций между компаниями. Другим потенциально перспективным способом является внедрение технологии блокчейна для IP-телефонии с обязательной аутентификацией вызывающего абонента.

Защита от поддельного аудио не отменяет использования других технологий защиты корпоративных данных, подчеркивают в Symantec – таких как системы фильтрации и проверки подлинности для электронной почты, платежные протоколы с многофакторной аутентификацией, обратный звонок и пр.

Темы:Искусственный интеллектУгрозыSymantecпоследние разработки
Безопасная разработка
Москва | 15 октября 2024 | Доверенные решения для защиты российских ОС на базе Linux и миграции
Регистрируйтесь и приходите на Форум ITSEC 2024
Статьи по темеСтатьи по теме

Участвуйте в проектах

редакции журнала
"Информационная безопасность" 

КАЛЕНДАРЬ МЕРОПРИЯТИЙ 2024
ПОСЕТИТЬ МЕРОПРИЯТИЯ
ВЫСТУПИТЬ НА КОНФЕРЕНЦИЯХ
СТАТЬ АВТОРОМ
SOAR, IRP, SOC
Защита АСУ ТП и КИИ: готовимся к 2025 году
Обсуждаем на ITSEC 2024!

Еще темы...

More...