Контакты
Подписка 2025
ITSEC 2025
Интеграция безопасности в процессы внутренней разработки. 17-18 июня на Форуме ITSEC 2025
Регистрируйтесь и участвуйте!

Исследователи научились обманывать функцию ИИ по распознованию смысла слов

02/04/19

AI errorКоманда специалистов IBM, Amazon и Техасского университета разработала атаку на алгоритмы обработки естественного языка (Natural Language Processing, NLP), с помощью которой им удалось изменить поведение модели искусственного интеллекта.

Атака, названная исследователями «атакой перефразирования», была представлена на конференции по вопросам ИИ в Стэнфордском университете в понедельник, 1 апреля. Ее суть заключается в изменении вводимого текста таким образом, чтобы при сохранении первоначального смысла ИИ воспринимал его по-другому.

К примеру, существует алгоритм ИИ, анализирующий содержимое электронных писем и обозначающий их как «спам» или «не спам». Злоумышленник может так модифицировать текст спам-сообщения, чтобы ИИ классифицировал его как «не спам». В то же время для человека смысл сообщения останется без изменений.

Предыдущие варианты атак на текстовые модели предполагали изменение одного слова в предложениях. Такое модифицирование текста действительно позволяло «обмануть» алгоритм, однако сами предложения при этом звучали неестественно и резали ухо. Команда исследователей IBM, Amazon и Техасского университета решила не менять слова в предложениях, а перефразировать их полностью, сохраняя при этом читабельность.

Исследователи создали алгоритм для поиска оптимальных изменений в предложениях, которые позволили бы манипулировать поведением модели NLP. На конференции в Стэнфордском университете команда представила наглядные примеры таких изменений. К примеру, заменив предложение «Цены ниже, чем у некоторых известных конгломератов» на «Цены ниже, чем у некоторых известных брендов, указанных ниже», исследователям удалось заставить модель NLP классифицировать откровенно рекламное сообщение как «не спам».

Подробнее: https://www.securitylab.ru/news/498602.php

Темы:IBMИскусственный интеллектОтрасль
КИИ
Защита контейнеров и микросервисной разработки на Форуме ITSEC 2025
Регистрируйтесь и участвуйте 18 июня 2025 →

Участвуйте в проектах

редакции журнала
"Информационная безопасность" 

КАЛЕНДАРЬ МЕРОПРИЯТИЙ 2025
ПОСЕТИТЬ МЕРОПРИЯТИЯ
ВЫСТУПИТЬ НА КОНФЕРЕНЦИЯХ
СТАТЬ АВТОРОМ
ТБ Форум
Проектирование и защита API на Форуме ITSEC 2025
Посетите 17-18 июня →

Еще темы...

More...