11.04.2025

Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили РБК пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта "О регулировании систем искусственного интеллекта (ИИ) в России" (копия есть у РБК, ее подлинность подтвердили два источника РБК на IT-рынке). Документ обсуждался на заседаниях рабочих групп в Госдуме, в "Деловой России", а также на отраслевых дискуссионных площадках, отметили собеседники РБК.

В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).

Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сейчас по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа "по разработке всего, что связано с законодательством в области ИИ".

По его словам, законодательные инициативы пока депутатами "всерьез не рассматриваются". "Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей", — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, "которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы", но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.

Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.

Что предлагает законопроект:

  • Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
  • Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
  • Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
  • Ввести требования к маркировке систем ИИ, то есть обязательному информационному обозначению, которое будет указывать на использование ИИ при взаимодействии с пользователем. Маркировка должна быть "явной, недвусмысленной и легко идентифицируемой". Ее должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем. Требование не будет распространяться на системы ИИ, используемые в закрытых технологических процессах, для внутренней автоматизации организаций и ряде других.
  • Ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Предлагается запретить в России разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина; для систем с высоким уровнем риска (тех, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) ввести обязательную госрегистрацию и сертификацию; для тех, у которых ограниченный уровень риска, — системы внутреннего контроля качества, добровольную сертификацию.
  • Ввести ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем искусственного интеллекта. Но в документе оговаривается, что разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях, оператор систем ИИ будет освобожден от ответственности, если докажет, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы и др. Предлагается ввести обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
  • Для определения, кому принадлежат права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на то, был ли существенный творческий вклад человека (определял ли человек параметры и критерии создания результата, делал ли творческий отбор и доработку, принимал ли творческие решения в процессе создания). Если такой вклад был, то исключительное право на результат должно принадлежать этому человеку, если не было, то оператору системы ИИ (действует в течение 50 лет).

Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.

Нужно ли регулировать ИИ

Источник РБК в одной компании — разработчике ИИ говорит, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Например, в феврале этого года вице-премьер Дмитрий Григоренко говорил, что законодательное регулирование ИИ не планируется в ближайшие два года.

"Российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, — говорит источник РБК. — Чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли для экономики страны, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков". Он отметил, что негативное влияние регулирования видно на примере европейских компаний: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, собственные конкурентоспособные решения не появляются.

Директор по цифровым технологиям "Ростелекома" Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. "Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости", — говорит Хазеев, отмечая, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.

Представители "Яндекса", МТС и VK отказались от комментариев. РБК направил запрос в "Сбер".

Новости из связанных рубрик