Новости | ITSec.Ru

Международная организация по стандартизации (ISO) опубликовала новый стандарт для разработчиков ИИ

Written by Komolov Rostislav | 09/02/24

Этот документ призван обеспечить компаниям всестороннее руководство по созданию и использованию быстро развивающихся умных технологий.

За последние несколько лет в мире возникла серьезная путаница из-за противоречивых подходов IT-корпораций, таких как Meta*, Microsoft и Google, к вопросам ответственного применения ИИ, поясняют в Securitylab.

 Организация Responsible AI Institute в Техасе также разрабатывает собственную систему оценки и сертификации. Подобных инициатив и компаний, которые видят проблему по-своему, огромное множество, поэтому вполне логично, что ISO решила «навести порядок».

В отличие от общих принципов, новый стандарт ISO содержит конкретные указания и инструкции. Особое внимание уделяется системам управления ИИ - реестрам различных технологий, которые использует компания. В них должна содержаться информация о целях, способах и сферах применения каждого отдельного инструмента.

Как говорится в самом документе, «подобные системы – это основа, определяющая политики, задачи и процессы для ответственной разработки, внедрения и использования решений на базе ИИ».

По словам экспертов, благодаря новому стандарту разработчики будут уверены в том, что перед запуском продукта были соблюдены все необходимые процедуры и предусмотрены механизмы для устранения возможных проблем.

Хотя стандарт ISO носит добровольный характер, у компаний будет серьезная мотивация ему следовать - в скором времени в разных странах появятся государственные регулировки, обойти которые будет уже сложнее. К примеру, к 2025 году в ЕС должен вступить в силу Акт об искусственном интеллекте. Кроме того, соответствие стандарту ISO поможет компаниям завоевать доверие общественности, обеспокоенной потенциальными рисками технологий ИИ.