Для систем искусственного интеллекта (ИИ) высокого и критического уровня риска потребуется получать сертификат на соответствие требованиям безопасности Федеральной службы по техническому и экспертному контролю (ФСТЭК) и Федеральной службы безопасности (ФСБ). Это следует из законопроекта правительства «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты», подробнее пишет РБК.
Тестирование на соответствие ИИ-систем этим требованиям будет проходить на специальном полигоне, созданном Минцифры, Если тестирование пройдет успешно, системы будут допущены к использованию на объектах критической информационной инфраструктуры (к ней относятся сети связи и информационные системы госорганов, энергетических, транспортных, финансовых, телекоммуникационных и ряда других компаний).
В «Группе Астра», крупнейшем разработчике ИИ-решений и вендоре B2B-решений, прокомментировали инициативу Минцифры.
«Ключевой вопрос — методология тестирования. Скорее всего регулятор не пойдёт по пути формальных чек-листов, ведь никто не хочет получить иллюзию контроля без реальной безопасности. Уверен, что вопрос проработан на высоком уровне. Очевидна необходимость adversarial-тестов, red teaming и непрерывный мониторинг в продакшене, а не разовая сертификация. Для «Группы Астра» это шанс стать стандартом безопасности — у нас полный стек: своя ОС, контейнеризация, изолированная инфраструктура. Уже сейчас предлагаем защищенную архитектуру для безопасного развертывания ИИ в КИИ и можем участвовать в формировании методик тестирования, чтобы они не превратились в бюрократический тормоз инноваций», — говорит Станислав Ежов, директор по ИИ «Группы Астра».