Новый ГОСТ изменит работу с ИИ в критической информационной инфраструктуре
Николай Павлов, 28/08/25
Российские компании, использующие искусственный интеллект в критической информационной инфраструктуре, готовятся к новым требованиям. ФСТЭК России опубликовала проект ГОСТ Р, устанавливающий правила обеспечения безопасности ИИ-систем в ключевых отраслях – от энергетики и транспорта до финансов и здравоохранения. При этом стоимость несоблюдения новых правил может оказаться значительной: это не только риски утечек конфиденциальных данных, но и штрафы, и потеря репутации.
Автор: Николай Павлов, архитектор MLSecOps, преподаватель Академии Softline (ГК Softline)
Искусственный интеллект в КИИ
Искусственный интеллект прочно вошел в практику цифровой трансформации, в том числе в организациях критической информационной инфраструктуры. Активное внедрение ИИ-решений бизнесом обусловлено их доказанной эффективностью – они существенно снижают затраты и повышают производительность. Однако многие руководители, увлеченные перспективами технологии, недооценивают сопутствующие риски.
Главная угроза, связанная с использованием ИИ в критической инфраструктуре, – неконтролируемая передача данных на внешние серверы. Все, что вводится в промпт ИИ, зачастую уходит за пределы корпоративного периметра и может обрабатываться, а затем бессрочно храниться на мощностях иностранных компаний, расположенных в недружественных странах. Это делает уязвимыми не только клиентские данные, но и внутренние процессы – от переписки до технологической документации.
В условиях КИИ, охватывающей ключевые отрасли экономики, подобные утечки несут особую опасность: они способны поставить под угрозу непрерывность работы, национальную безопасность и доверие общества к цифровым сервисам. Долгое время главной проблемой оставалось отсутствие четкого правового регулирования применения ИИ. При неопределенных требованиях организации действовали на свой страх и риск, а несогласованность защитных мер повышала уязвимость критически важных систем.
1 июля 2025 г. на странице Технического комитета 362 был опубликован проект ГОСТ Р "Искусственный интеллект в критической информационной инфраструктуре. Общие положения" [1]. Даже с учетом предстоящих доработок этот документ уже задает ключевые направления и формирует фундаментальные принципы безопасного применения ИИ в КИИ.
Краткий обзор проекта стандарта
Проект нового ГОСТ Р устраняет правовой вакуум в сфере применения искусственного интеллекта в критической информационной инфраструктуре и впервые формирует единый регламент для всех участников этого процесса: разработчиков, интеграторов, эксплуатирующих организаций и подрядчиков. Документ не ограничивается общими принципами, а задает четкую терминологическую и методологическую базу. В нем закреплены ключевые определения: что считается системой искусственного интеллекта, какие объекты и субъекты относятся к КИИ, как классифицируются угрозы, уязвимости и инциденты. Формируется единая понятийная рамка, устраняющая расхождения между заказчиками, регуляторами и вендорами. Регламентируется полный жизненный цикл ИИ-систем от проектирования до вывода из эксплуатации. То есть ИИ-системы из черного ящика превращаются в управляемый объект с предсказуемыми рисками безопасности.
Особое место занимает классификация систем ИИ по уровням критичности. Выделены четыре категории: от рекомендательных решений, чьи ошибки не приводят к непосредственному нарушению функционирования объектов КИИ, до систем, ошибки или сбои в работе которых могут привести к аварийным ситуациям, угрозе жизни и здоровью людей, материальному ущербу и другим тяжелым последствиям. Для каждой категории предусмотрены соответствующие требования к безопасности, надежности, тестированию, контролю и наличию планов аварийных остановок.
Проект также задает требования к управлению рисками. Вводится обязательная идентификация угроз, связанных с качеством и репрезентативностью данных, интерпретацией результатов, поведением моделей и целенаправленными атаками. Предусмотрены регулярные оценки риска: ежегодные для систем низкой и средней критичности, полугодовые и чаще – для высококритичных. Для систем ИИ 3-го и 4-го уровня устанавливается расширенный спектр методов снижения рисков: проектирование безопасности на всех этапах жизненного цикла, многоуровневая защита, формальная верификация, резервирование компонентов, независимая экспертиза и моделирование атак и др.
Документ четко описывает организационные меры. Компании обязаны разрабатывать внутренние политики безопасности ИИ, внедрять процедуры управления доступом и изменениями, формировать планы резервного копирования и восстановления, а для высококритичных систем – еще и указаны планы обеспечения непрерывности функционирования, аварийных остановок и безопасного перехода. Дополнительно закрепляется обязанность проведения регулярных учений по реагированию на инциденты.
ГОСТ вводит детализированные требования к мониторингу. Предписан непрерывный контроль производительности, безопасности, качества данных, действий пользователей и администраторов. Для систем высоких уровней критичности – создание выделенных центров мониторинга с круглосуточным режимом работы. Помимо мониторинга, документ предписывает разработку комплексных планов реагирования на инциденты, их регулярное обновление и тестирование.
Важный элемент – оценка эффективности систем. Для этого установлены группы показателей: точность и скорость обработки данных, устойчивость к изменениям входных данных, показатели надежности и безопасности, включая среднее время наработки на отказ, время реагирования на инциденты и количество выявленных уязвимостей. Для каждого показателя должны задаваться целевые, допустимые и критические значения, методики измерения и порядок анализа результатов.
Неотъемлемой частью становятся процедуры аудита: внутренний аудит, тестирование на проникновение, проверки соответствия нормативным документам, аудит обработки данных. Частота проверок напрямую связана с уровнем критичности системы: от ежегодных для низких уровней до ежемесячных для критических. Все результаты аудита подлежат документированию и используются для корректировки процессов.
Наконец, стандарт гармонизирован с международными и российскими рамками, включая ISO/IEC 27001, ISO/IEC 22989, ISO/IEC 42001 и Федеральный закон № 187-ФЗ "О безопасности КИИ". Это не только облегчает адаптацию для организаций, уже работающих по этим требованиям, но и создает основу для возможного взаимного признания стандартов на глобальном уровне.
Проект ГОСТ Р "Искусственный интеллект в критической информационной инфраструктуре. Общие положения" не просто устанавливает формальные правила, а задает многоуровневую архитектуру доверия. Он сочетает технические, организационные и правовые требования, обеспечивает прозрачность, устойчивость и управляемость ИИ-систем в критической инфраструктуре и формирует единый стандарт зрелости для всей отрасли.
Что уже сейчас делать бизнесу
Введение нормативных требований потребует существенных изменений – пересмотра существующих процессов, дополнительных инвестиций в кибербезопасность и обучение сотрудников, участвующих в создании и эксплуатации ИИ-систем, а также возможной модернизации ИТ-инфраструктуры.
Эти изменения станут драйвером развития MLSecOps – нового направления на стыке машинного обучения и информационной безопасности. Если раньше спрос на такие решения определялся рыночной конъюнктурой, то теперь они приобретают стратегическую важность. В свою очередь это спровоцирует резкий рост спроса на профильных специалистов, способных обеспечивать безопасность ML-систем на всех этапах их жизненного цикла, проводить аудит алгоритмов на соответствие новым стандартам, а также разрабатывать механизмы защиты от атак на ИИ-модели.
Стоит отметить, что рынок труда уже демонстрирует устойчивый тренд: по данным мониторинга вакансий hh.ru, спрос на специалистов в области безопасности ИИ за первое полугодие 2025 г. увеличился в четыре раза [2] по сравнению с аналогичным периодом 2024 г. Новый ГОСТ Р может усилить эту динамику, поскольку компаниям придется не только адаптировать существующие системы, но и нанять квалифицированных MLSecOps-специалистов либо инвестировать в обучение действующих сотрудников.
Если рассматривать технические и организационные меры, для успешной адаптации к новым регуляторным требованиям организациям уже сегодня необходимо предпринять ряд практических шагов. Среди первоочередных задач можно выделить проведение комплексного аудита существующих ИИ-решений, включая анализ мест хранения исходного кода моделей, определение ответственных за разработку и эксплуатацию ИИ-систем, проверку полноты технической документации и оценку безопасности всех системных интеграций. Особое внимание стоит уделить средствам защиты каналов взаимодействия пользователей с ИИ-системами.
Не менее значимым направлением подготовки является создание эффективной системы реагирования на инциденты. Подразумевается разработка четких планов реагирования на кибератаки и восстановления работоспособности систем, а также внедрение регулярного тестирования на устойчивость к различным видам атак.
Выводы
Внедрение искусственного интеллекта в критическую информационную инфраструктуру – это не просто вопрос эффективности, а сложный баланс между инновациями и безопасностью. С введением ГОСТ Р "Искусственный интеллект в критической информационной инфраструктуре. Общие положения" исчезнет правовая неопределенность: теперь для всех этапов работы с ИИ-системами рекомендованы меры защиты. Однако организациям предстоит серьезная работа – от аудита текущих решений до пересмотра подходов к кибербезопасности и подготовки или найма новых профильных специалистов.
Компании, которые успеют адаптироваться первыми к новому стандарту, получат защиту от санкций регуляторов и рыночное преимущество. Остальные же рискуют уязвимостью к кибератакам и отставанием в технологической гонке. И вопрос уже не в том, внедрять ли ИИ, а в том, как сделать максимально безопасно для бизнеса и общества.