Контакты
Подписка 2024
Персональные данные
4 апреля. Персональные данные в 2024 году: регулирование, практика, тенденции
Регистрируйтесь на онлайн-конференцию!

В совместном исследовании Европола и ЮНИКРИ описываются существующие и возможные угрозы с использованием ИИ

30/11/20

ИИКомпания Trend Micro, Европол и Межрегиональный Научно-исследовательский институт ООН по вопросам преступности и правосудия (ЮНИКРИ) подготовили совместный доклад, посвящённый использованию искусственного интеллекта (ИИ) в противозаконных действиях «Эксплуатация ИИ: как киберпреступники используют возможности искусственного интеллекта и машинного обучения и злоупотребляют ими» (“Exploiting AI: How Cybercriminals Misuse and Abuse AI and ML”).

В докладе описаны существующие сценарии использования ИИ в преступных целях, возможные варианты развития инструментов киберпреступников в будущем, а также методы борьбы с ними, которые будут полезны представителям правоохранительных органов, правительственных и других организаций.

«ИИ способен помочь миру повысить эффективность процессов в самых различных областях, уровень их автоматизации и общей автономности. Сейчас общественность всё больше беспокоят сценарии неправомерного использования ИИ, поэтому мы должны открыто говорить о возможных угрозах, но и не забывать при этом о потенциальных преимуществах технологий искусственного интеллекта, — отметил Эдвардас Шилерис (Edvardas Šileris), глава Центра по борьбе с киберпреступностью, входящего в состав Европола. — Этот доклад даёт нам возможность предвидеть возможные злоупотребления ИИ и методы его применения в противозаконных целях, а также своевременно предотвращать эти угрозы. Только так мы сможем полностью раскрыть потенциал технологии и извлечь выгоду из её внедрения в мире».

В отчёте говорится о том, что киберпреступники будут использовать ИИ и как вектор, и как поверхность атаки. В настоящее время дипфейки (Deep Fakes) остаются наиболее известным сценарием применения ИИ в качестве вектора атаки. Однако, по мнению авторов доклада, в будущем потребуются новые технологии проверки данных, которые помогут бороться с кампаниями дезинформации и попытками вымогательства, а также угрозами, нацеленными непосредственно на массивы данных ИИ.

Вот всего несколько примеров использования ИИ в преступных целях:

  • крупномасштабные и правдоподобные атаки с использованием социальной инженерии;
  • вредоносное ПО для уничтожения документов, которое повышает эффективность атак киберпреступников;
  • обман систем распознавания изображений и голоса;
  • помощь в поиске целей и уклонении от систем защиты при атаках с применением программ-вымогателей;
  • «загрязнение» массивов данных за счёт выявления слепых зон в правилах обнаружения.

«Применение ИИ начинает оказывать вполне реальное влияние на наш мир, и становится ясно, что эта технология станет одной из фундаментальных в будущем человечества, — отметил Ираклий Беридзе (Irakli Beridze), руководитель Центра ИИ и робототехники ЮНИКРИ. — Однако угроза злонамеренного использования ИИ не менее реальна для общества, чем польза от его применения. Для нас большая честь работать с Европолом и компанией Trend Micro и совместно пролить свет на “тёмную сторону” технологий искусственного интеллекта, чтобы стимулировать дальнейшее обсуждение этой важной темы».

В докладе также говорится о том, что уже сейчас разрабатываются системы на базе ИИ, которые должны повысить эффективность вредоносного ПО и препятствовать работе антивирусов и технологий распознавания лиц.

«Киберпреступники всегда первыми внедряли новейшие технологии, и ИИ не исключение. В нашем докладе говорится, что ИИ уже используется для подбора паролей, взлома CAPTCHA и клонирования голоса, а в разработке находится ещё немало инновационных инструментов, — отметил Мартин Рёслер (Martin Roesler), руководитель подразделения Trend Micro по исследованию перспектив развития угроз. — Мы гордимся тем, что объединили усилия с Европолом и ЮНИКРИ, чтобы повысить осведомленность об этих угрозах и помочь в создании безопасного цифрового будущего для человечества».

В завершение доклада авторы дают несколько рекомендаций:

  • Потенциал технологий искусственного интеллекта необходимо использовать в качестве инструмента борьбы с киберпреступностью, чтобы защитить индустрию ИТ-безопасности и правоохранительные органы в будущем.
  • Необходимо продолжать исследования, которые помогут развивать технологии кибербезопасности.
  • Также необходимо популяризировать и разрабатывать безопасные среды проектирования ИИ.
  • Политическую риторику об использовании ИИ в целях кибербезопасности стоит минимизировать.
  • Рекомендуется активно использовать государственно-частное партнёрство и создавать мультидисциплинарные экспертные группы.
Темы:ООНИсследованиеИскусственный интеллектОтрасльЕвропол
NGFW
9 апреля. Отечественные NGFW: как защитить облачную инфраструктуру и настроить обнаружение кибератак
Участвуйте и представляйте решения!
Статьи по темеСтатьи по теме

Участвуйте в проектах

редакции журнала
"Информационная безопасность" 

КАЛЕНДАРЬ МЕРОПРИЯТИЙ 2024
ПОСЕТИТЬ МЕРОПРИЯТИЯ
ВЫСТУПИТЬ НА КОНФЕРЕНЦИЯХ
СТАТЬ АВТОРОМ
SOAR, IRP, SOC
Спецпроекты журнала "Информационная безопасность"
Станьте автором издания!

Еще темы...

More...