США активизируют создание механизма добровольного тестирования моделей ИИ
Игнатьев
руководитель аналитического направления Центра глобальной ИТ-кооперации
О мерах, предпринимаемых США для укрепления лидерства в области искусственного интеллекта, и о том, почему России важно развивать независимую систему тестирования ИИ, рассказывает руководитель аналитического направления Центра глобальной ИТ-кооперации Андрей Игнатьев.
В опубликованном в США 24 октября 2024 г. "Меморандуме о развитии лидерства Соединенных Штатов в области искусственного интеллекта; использовании искусственного интеллекта для достижения целей национальной безопасности; и повышении надежности, безопасности и доверия в области искусственного интеллекта"1 в Разделе 3 ("Продвижение и обеспечение безопасности основополагающих возможностей США в области ИИ") в п. 3.3(c) перед Институтом безопасности ИИ (U.S. Artificial Intelligence Safety Institute - AISI) поставлены новые задачи по налаживанию в стране механизма добровольного тестирования передовых моделей ИИ.
Институт безопасности ИИ (далее - AISI) был образован в ноябре 2023 года, базируется и функционально взаимодействует с Национальным институтом стандартов и технологий США (National Institute of Standards and Technology - NIST), в структуре американских институтов AISI находится в сфере ответственности Министерства Торговли. Важным является тот факт, что AISI для решения задач по добровольному тестированию в сфере ИИ будет налаживать прочные горизонтальные связи с другими американскими агентствами, промышленностью, бизнесом, академическим сообществом и общественными организациями. Такая деятельность будет осуществляться на базе Консорциума Института безопасности ИИ (Artificial Intelligence Safety Institute Consortium - AISIC), созданного в феврале 2024 года. На внешнем контуре планируется также укрепить взаимодействие AISI с Институтом безопасности ИИ Великобритании (AI Safety Institute).
Таким образом, Консорциум AISIC, который сегодня объединяет более 280 организаций активно займется разработкой научно обоснованных и практически апробированных рекомендаций и стандартов для измерений и тестирования передовых систем на основе ИИ. В координации с соответствующими ведомствами специалистами AISI будет налажена работа по тестированию несекретных систем на различных стадиях жизненного цикла, включая оценку параметров, связанных с кибербезопасностью, биологической безопасностью, химическим оружием. Планируется также разработка методик по оценке автономности систем, выявлению других рисков, связанных с массовым внедрением алгоритмов ИИ.
Как предполагается, продукты и разработки AISI будут влиять на выработку подходов и регуляторной политики в области безопасности ИИ не только в США, но и на глобальном уровне. Наработка соответствующих инструментов и практик в области тестирования может обеспечить США лидирующие позиции в использовании систем ИИ следующего поколения.
Сегодня вопросы организации эффективной практической работы по тестированию моделей ИИ приобретают особую актуальность. Надежные и объективные методики оценки и тестирования систем, инструменты для сравнительного анализа продуктов ИИ становятся все более необходимы как для обеспечения национальной безопасности, так и для реализации экспортной политики на мировом рынке ИИ.
Для России в условиях тотальных санкций, экономического давления и жесткой конкуренции становится крайне важным не допустить отставания в наработке практического опыта на данном направлении, наращивать организационные и технические возможности для проведения независимых тестовых испытаний новейших систем ИИ, как отечественного, так и зарубежного производства. Открытие оснащенных, современных лабораторий для тестирования и сертификации систем и приложений на основе ИИ значительно облегчит разработку эффективных стратегий управления рисками в области ИИ, особенно с учетом пока непредвиденных вызовов, перед которыми стоит человечество в условиях галопирующего внедрения быстро масштабируемых ИИ-продуктов. Опыт и практические результаты создания в России системы добровольных испытаний могли бы обеспечить более качественную реализацию национальной стратегии и национальных проектов в области ИИ.
В декабре 2023 года Росстандарт зарегистрировал созданную в НИУ ВШЭ российскую систему добровольной сертификации "Интеллометрика", на базе которой может осуществляться оценка соответствия алгоритмов ИИ предъявляемым к ним требованиям и могут предоставляться гарантии того, что системы ИИ выполняют заявленные функции. "Интеллометрика" позволяет проводить работы по добровольной сертификации и технологической сертификации (идентификация для целей отнесения объектов к группе специализированной продукции). Дальнейшая поддержка и укрепление подобных проектов безусловно способствовала бы скорейшему совершенствованию национальной практики в области тестирования и испытания систем ИИ.
Американский Меморандум о развитии лидерства США от 24.10.2024 г. отвечает конкретному требованию Executive Order 14110 "О безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта"2, который требует разработки отдельного документа об использовании ИИ в системах национальной безопасности.
В Меморандуме обозначены три основные цели:
1) США должны стать лидером в разработке ИИ;
2) использовать ИИ для обеспечения национальной безопасности при наличии соответствующих гарантий;
3) США должны содействовать ответственному международному управлению ИИ.
Совместно с меморандумом Белый дом опубликовал "Рамочную программу по развитию управления искусственным интеллектом и рисками в сфере национальной безопасности"3.
1Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence, October 24, 2024,
2Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, October 30, 2023
3Framework to Advance AI Governance and Risk Management in National Security ("AI Framework")