РАЭК и Microsoft изучили возможные подходы к разработке этичных решений в области искусственного интеллекта
Использование технологий искусственного интеллекта (далее - ИИ) постепенно переходит из плоскости футурологии в плоскость повседневности. Положительные эффекты от применения ИИ уже сегодня подкреплены множественными практическими примерами. Эксперты и аналитики говорят о позитивном влиянии ИИ на рост стоимости бизнеса и отмечают общественную значимость использования ИИ для решения национальных задач. В IDC ожидают, что по итогам 2021 года объем глобального рынка ИИ, включая ПО, устройства и сервисы, достигнет $341,8 млрд, увеличившись на 15,2% по сравнению с 2020 годом, а к 2024 году преодолеет отметку в $500 млрд1.
Чем больше задач делегируется алгоритмам, тем более остро встают вопросы безопасности и ответственного применения систем ИИ. Ответом на вызовы, связанные с использованием ИИ, становятся различные рекомендации, принципы, стандарты и технологические решения, которые призваны снизить уровень существующих рисков и обеспечить эффективную, надежную и безопасную работу алгоритмов.
Проблематике этики ИИ посвящено достаточно большое число работ ведущих экспертов и исследовательских агентств. Например, в базе данных инициативы AlgorithmWatch2 содержится более 160 документов, описывающих различные подходы к изложению принципов разработки автоматизированных систем принятия решений с соблюдением этических норм. Вместе с тем только 10 из них предлагают практические механизмы реализации данных принципов. Как следствие, большинство этих документов едва ли способно оказать реальное влияние на снижение степени риска.
В своем исследовании подходов к разработке этичных решений в области ИИ РАЭК и Microsoft сконцентрировали внимание на практических решениях и инструментах, которые могут помочь разработчикам в создании доверенного ИИ ("trustworthy AI").
Чтобы считаться этичными, системы ИИ должны соответствовать ряду условий. На основе экспертных исследований и обсуждений на различных международных площадках появился определенный контур общих подходов к вопросам этики в области ИИ. Чаще всего такой контур или подходы формализуются в рамках общих принципов или рекомендаций относительно развития ИИ, к которым относятся прозрачность, непредвзятость, подотчетность, приоритет интересов человека и контроль с его стороны, ответственность разработчиков, пользователей и других заинтересованных лиц. Соблюдение данных рекомендаций в совокупности с выполнением требований действующего законодательства и следованием существующим стандартам лежат в основе создания доверенного ИИ.
Разработка доверенного ИИ включает в себя применение совокупности принципов, практик и инструментов, которые помогают разработчикам минимизировать риски возникновения негативных последствий использования систем ИИ и создавать этичные, безопасные, прозрачные и подотчетные технологические решения. Применение различных требований и принципов к системам ИИ основывается на риск-ориентированном подходе, при котором к системам с высоким уровнем риска предъявляются повышенные требования. Необходимо отметить, что риск возникновения негативных последствий едва ли возможно устранить полностью, поэтому необходим комплексный подход к выявлению, изучению, измерению, управлению рисками и их минимизации.
Начало обсуждения вопросов создания доверенного ИИ является следствием осознания рисков, связанных с использованием технологий ИИ, включая риски дискриминации, необъективности, предвзятости, угрозы конфиденциальности и возникновения ошибок. Выделяется несколько уровней, на которых могут возникнуть ошибки, приводящие к несправедливым, неверным или дискриминирующим результатам работы систем ИИ:
- уровень разработки;
- уровень обучения алгоритмов;
- уровень данных для работы алгоритмов;
- уровень внедрения.
На каждом из этих уровней существуют собственные источники неверных, несправедливых или предвзятых решений. При распространении систем ИИ данные источники могут оказать существенное влияние на сохранение дискриминации и предрассудков, существующих в обществе, а также иметь существенные негативные последствия для лиц, в отношении которых данные системы были использованы. Поэтому инициативы по снижению рисков принятия таких решений играют важную роль для безопасного и ответственного развития технологий.
Такие инициативы особенно важны сейчас, когда национальное регулирование, направленное на построение этичных систем ИИ, и технологические стандарты в этой сфере пока еще находятся в стадии формирования.
Одной из таких инициатив является Национальный кодекс этики в сфере искусственного интеллекта, принятый 26 октября 2021 года в России. Собственные рекомендации, принципы и своды правил, добровольное соблюдение которых способствует разработке доверенного ИИ и его ответственному использованию, сегодня разрабатывают все страны, претендующие на лидерство в сфере ИИ. В условиях отсутствия нормативного регулирования подобные документы являются важными инструментами, определяющими рамки разработки и использования ИИ и позволяющими снизить риск возникновения негативных последствий для людей и общества. В этой связи, Национальный кодекс этики в сфере искусственного интеллекта является своевременной и необходимой инициативой, которая, безусловно, окажет стимулирующее воздействие на развитие ИИ-технологий в стране.
Кодекс включил в себя как общие принципы создания этичного ИИ и его ответственного использования, так и "точечные" рекомендации, направленные на различных участников жизненного цикла систем ИИ. Механизмы реализации Кодекса включают в себя такие актуальные и международно признанные инструменты, как риск-ориентированный подход и создание свода наилучших практик решения возникающих этических вопросов в жизненном цикле ИИ. Несмотря на то, что Кодекс и подобные ему документы не имеют юридической силы, они, тем не менее, могут использоваться как ориентиры на пути к доверенному ИИ.
Изучить подробнее:
Актуальность и необходимость создания этического Кодекса для искусственного интеллекта подтверждает запущенные в последние два года инициативы, демонстрирующие заинтересованность в развитии данной отрасли со стороны государства. В частности, утверждена Национальная стратегия развития искусственного интеллекта (2019), запущен федеральный проект "Искусственный интеллект" (2020), большой частью которого является серия хакатонов и лекций по ИИ (2021).
1https://www.idc.com/getdoc.jsp?containerId=prUS48127321
2https://algorithmwatch.org/en/ai-ethics-guidelines-inventory-upgrade-20…