Дипфейки в новой цифровой реальности: как распознать и не поддаться
Никита Леокумович, 01/08/24
Дипфейк – это искусственная генерация изображения и звука, для которой нужны исходные данные человека, чей образ пытаются создать мошенники. Во многих соцсетях контент по умолчанию находится в свободном доступе, что облегчает работу преступникам. Закрытые аккаунты тоже не становятся препятствием, их “угоняют” или взламывают с помощью социальной инженерии. С развитием искусственного интеллекта тренд на дипфейки в фишинговых атаках усилится, уверены эксперты.
Автор: Никита Леокумович, руководитель управления цифровой криминалистики и киберразведки Angara Security
Реклама – двигатель дипфейков
В 2022 г. в мессенджерах, соцсетях и на комьюнити-площадках сформировался и до сих пор не сбавляет обороты еще один киберкриминальный тренд – сбор аудиоданных под видом приглашения на озвучку рекламы и фильмов. В 2022 г. в российском онлайн-сегменте зафиксировано почти 5 тыс. таких сообщений, а в прошлом году эта цифра выросла до 7 тыс. Обычно в таком объявлении предлагается заработать на большом медиапроекте, сумма гонорара варьируется в пределах от 0,3 до 5 тыс. руб., но особенно насторожить потенциальную жертву должно главное условие: от нее требуется аудиофайл, похожий на телефонный звонок.
Дело в том, что речь человека сильно меняется в зависимости от ситуации: монолог на камеру в прямом эфире, живой разговор с другом и телефонная беседа очень различаются по интонации и тембру, поэтому преступники стараются сразу получить самый удобный для генерации звука вариант – имитацию телефонного звонка. Аудиофайлы в сочетании с персональными данными владельца голоса создают новое оружие социальной инженерии – аудио- и видеофейки, которые затем используются для фишинговых атак.
Фейковые боссы
В 2024 г. в России стали распространяться мошеннические схемы с использованием дипфейков. На этот раз в зоне риска оказались любители голосовых сообщений: дипфейк генерируется злоумышленниками с помощью образцов речи владельца взломанного аккаунта в Telegram или другом мессенджере. Подобную технику применили в атаке на одну из российских компаний в январе 2024 г.: от имени владельца взломанного аккаунта мошенники разослали сгенерированные голосовые сообщения людям, которые находились с ним в одних чатах. В международной практике такие кейсы тоже уже не редкость: преступники имитируют присутствие человека на видеоконференцсвязи и от его имени убеждают сотрудника перевести крупную сумму.
В России также широко распространился преступный кейс "фейковый руководитель". В этой схеме мошенники используют фейковый аккаунт главы организации, связываются с ее сотрудниками и просят перевести деньги. Разумеется, дипфейки в такой схеме в разы усиливают эффект.
Защита от дипфейков: уголовная ответственность или собственная бдительность?
Киберпреступники достаточно быстро внедряют дипфейки в новые и новые схемы мошенничества. Если в 2019 г. примерно 96% дипфейков были связаны с эротическим контентом, то сегодня дипфейки говорят голосом известных людей, пишут песни от имени популярных исполнителей и собирают у поклонников деньги якобы на новый альбом. Способность искусственного интеллекта имитировать реальный голос человека – это риск совершенно нового порядка, с которым столкнулось общество.
Со стороны финансового сектора банки усиливают защиту и проверку клиентов: при звонках сотрудники стараются задавать больше вопросов, чтобы точно идентифицировать клиента. В России также планируют рассмотреть законопроект об уголовной ответственности за использование технологии дипфейков в преступных целях. Его авторы предлагают установить наказание в виде штрафов вплоть до 1,5 млн руб. либо лишения свободы сроком до 7 лет, в зависимости от тяжести совершенного преступления.
Для борьбы с дипфейками разрабатываются технологические инструменты. Например, отечественная система мониторинга аудиовизуального контента
"Зефир" для выявления дипфейка использует самостоятельно обученную модель, а для поиска лица – модель Retina Face Onxx. Лучшим вариантом защиты от угрозы генеративного ИИ становится другой ИИ.
Рекомендации в заключение
Противодействие дипфейкам теперь становится частью киберграмотности. Каждый современный человек должен владеть этим навыком. Вот несколько приемов, которые помогут распознать потенциальный сгенерированный ИИ образ.
- Если вы общаетесь по видеосвязи, обращайте внимание на освещенность лица, его четкость и мимику: размытое изображение, нечеткие границы лица, странные тени, застывшая мимика или неестественный оттенок кожи могут говорить не о плохом качестве связи, а о дипфейке. Если ваш собеседник спокойно вертит головой, прикасается к лицу или пьет из чашки во время разговора – скорее всего, все в порядке, такие детали мошенникам пока не под силу.
- В аудиозвонке распознать подделку пока сложнее, но должно насторожить отсутствие эмоций и монотонность, незнакомые интонации. В случае любого подозрительного контакта стоит прервать сеанс связи и самостоятельно связаться с тем, кого вы считаете собеседником.
Нужно принять факт, что дипфейки с нами надолго. Это новая угроза в кибербезопасности, которая будет только совершенствоваться. Рынок, финансовые системы и экспертиза кибербезопасности будут, со своей стороны, адаптироваться и подбирать методы противодействия. А в компаниях стоит непрерывно повышать цифровую грамотность сотрудников, проводить регулярные информационные кампании и обучать коллег методам выявления фейков.