Нацпроект "Экономика данных" затронет регулирование искусственного интеллекта
Об этом заявил Евгений Хасин, заместитель директора департамента обеспечения кибербезопасности Министерства цифрового развития, связи и массовых коммуникаций РФ, на Инфофоруме 8 февраля. Он отметил, что вопрос безопасности искусственного интеллекта рассматривается в нескольких аспектах: безопасность самого ИИ, применение ИИ для обеспечения безопасности информационных систем и применение ИИ в отраслях экономики.
"Применение ИИ для обеспечения безопасности относится к информационной безопасности, и оно глубоко прорабатывалось при планировании работ по национальному проекту "Экономика данных", который стартует с 2025 г. с участием одного из основных регуляторов - Федеральной службы по техническому и экспортному контролю (ФСТЭК). ФСТЭК планирует в будущем принимать участие в регуляторике, а именно - в вопросах, связанных с выявлением угроз и использованием средств защиты информации и соответствующих требований. Пока идет речь о факультативном применении рекомендаций, но возможно введение обязанности следовать этим рекомендациям", - сообщил Евгений Хасин.
Также он рассказал, какие работы ведет Минцифры в области регулирования ИИ. Это работа с персональными данными, а именно - их обезличивание. По его словам, идет процесс принятия закона, который вносит изменения в закон о персональных данных в части обезличивания.
"Чтобы от законов не отставала и техника, мы проводим работы в области научно-методического сопровождения по линии Академии криптографии РФ в рамках нацпроекта "Цифровая экономика". Также ведутся работы по макетированию на базе АНО "Национальный технологический центр цифровой криптографии". Макет уже разработан как для выявления закономерностей обезличенных персональных данных, так и для гарантированного обезличивания данных", - добавил он.
По словам Евгения Хасина, этот блок отдельно предусмотрен в планах национального проекта "Экономика данных", но он будет уточняться, изменяться, поскольку пока национальный проект не утвержден.
Президент России Владимир Путин летом 2023 г. поручил правительству РФ к лету 2024 г. подготовить нацпроект "Экономика данных" и включить в него такие аспекты, как сбор данных, суверенную инфраструктуру для вычислений и хранения данных внутри страны, безопасность данных, суверенные и национальные стандарты и протоколы работы с данными, алгоритмы обработки и анализа данных, включая решения в области ИИ и отечественное ПО, а также передачу данных и развитие систем связи.
"В одиночку регулятор не сможет решить проблему по использованию ИИ для обеспечения безопасности в отраслях экономики из-за специфики каждой отрасли. Нужно понять, какие угрозы в каких отраслях ИИ может нести. Например, в отрасли транспорта. Одно дело, когда ИИ управляет беспилотным транспортом, а другое - когда ИИ определяет тарифы по загруженности такси. Отрасль одна, но специфика разная", - добавил заместитель директора департамента обеспечения кибербезопасности Минцифры РФ.
Должны ли стать правила по использованию ИИ обязательными для всех
Игорь Душа, директор портфеля продуктов вендора отечественного ПО "НОТА" (входит в холдинг Т1), отметил, что законодательные нормы по защите информации в России уже есть: их разработкой и последующим контролем за их соблюдением занимаются сразу два ведомства - ФСТЭК и Федеральная служба безопасности (ФСБ).
По его словам, вопрос общей этики, правил и норм регулирования ИИ находится в компетенции Минцифры, но при наличии требований и правил по защите информации, в том числе персональных данных, это станет областью компетенции ФСТЭК России - то есть функции четко разделены и вряд ли будут каким-то образом сужаться.
Пресс-служба ФСТЭК не ответила на запрос ComNews.
"Общие нормы применения ИИ и обязательства должны распространяться на все компании, а не только на государственные, так как должны быть общие правила, которые регулируют применение ИИ. Некоторые требования по использованию ИИ для отдельных задач, например по деперсонализации данных, могут применяться к тем организациям, которые работают с персональными данными", - считает Игорь Душа.
"Правила защиты информации должны относиться абсолютно ко всем организациям без исключения, которые собирают, обрабатывают данные. Желательно, чтобы и коммерческие, и госкомпании, и некоммерческие организации соблюдали свод правил по работе с данными, особенно с персональными, биометрическими. Необходимо сформировать предложения для каждого жителя страны, чтобы он захотел данными делиться, как с государством, так и с компаниями", - считает основатель Telegram-канала "Blockchain.рф" Ани Асланян.
По ее словам, эти предложения должны содержать как безопасное обращение с данными, так и финансово-мотивационную часть: в век развития ИИ человеку нужно получать дополнительный доход не в виде бонусов, которые не особо нужны, а в виде реальных денег, конкурентных тому, что человек может заработать; в таком случае общество начнет охотнее делиться данными, но при условии, что будут соблюдены правила безопасности.
Международный опыт регулирования ИИ
Андрей Незнамов, руководитель секции "Искусственный интеллект" Совета по развитию цифровой экономики при Совете Федерации РФ, управляющий директор - начальник центра регулирования ИИ ПАО "Сбербанк", рассказал о международном опыте регулирования ИИ и процессе создания глобального цифрового договора под эгидой Организации Объединенных Наций (ООН).
https://www.comnews.ru/content/225285/2023-04-07/2023-w14/mir-dogovoritsya-o-cifrovom-buduschem
"Доклад Совета по искусственному интеллекту ООН готов и опубликован в промежуточном варианте. Пока этот документ не содержит ничего прорывного и нацелен на прикладные технологии ИИ. Мы проводим консультации, какова будет позиция российских организаций", - сообщил Андрей Незнамов.
По его словам, в США существует большая дорожная карта с поручениями президента, что должен каждый из органов исполнительной власти сделать с ИИ; в Китае уже есть действующее законодательство по регулированию ИИ; но на международной арене наиболее интересно наблюдать за тем, что происходит в России.
"Под председательством России в БРИКС анонсировано, что одной из тематик станет сквозное использование технологий ИИ. Также есть попытка создания альянса ИИ в странах БРИКС+ и в других дружеских странах", - добавил Андрей Незнамов.