Депутаты Госдумы РФ внесли два законопроекта, которые затрагивают регулирование дипфейков. Авторы первого хотят внести изменения в несколько статей Уголовного кодекса и охватывают как использование изображений, так и использование голоса. Авторы второго предлагают внести поправки в Гражданский кодекс, и касаются они только использования голоса.
Анна
Швецова
© ComNews
17.09.2024

Первый законопроект внесла группа депутатов от партии ЛДПР утром 16 сентября. Авторы инициативы предлагают внести изменения в Уголовный кодекс. За клевету, совершенную с использованием изображения, голоса (в том числе фальсифицированных или искусственно созданных) или с использованием биометрических персональных данных, предлагается ввести штраф в размере до 1,5 млн руб., или в размере заработной платы, или другого дохода за период до 18 месяцев, или назначить лишение свободы до двух лет и другие меры.

За мошенничество предлагают наказывать штрафом в размере до 400 тыс. руб. или в размере зарплаты или другого дохода за период до двух лет, либо лишением свободы на срок до шести лет с возможным ограничением свободы на срок до полутора лет и другие меры.

В отзыве на законопроект заместитель председателя правительства РФ - руководитель аппарата правительства Дмитрий Григоренко указал, что законопроект требует существенной доработки.

Второй законопроект депутаты внесли вечером того же дня. Среди авторов - сенатор Андрей Клишас, зампред Совета по развитию цифровой экономики при Совете Федерации Артем Шейкин и др. Они предлагают внести изменения в Гражданский кодекс и дополнить его статьей 152.3 ("Охрана голоса гражданина"). Законопроект предполагает, что запись голоса человека можно использовать только с его согласия. То же касается и записей, в которых содержится воссозданный с помощью специальных технологий голос гражданина - речь идет о технологиях синтеза речи, дипфейках. В пояснительной записке сказано, что законопроект разработан при участии Альянса в сфере искусственного интеллекта (ИИ) и Национальной федерации музыкальной индустрии.

"При недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и "производные" записи могут быть использованы способом, неприемлемым для человека - обладателя голоса, поскольку получение его согласия прямо не предусмотрено законодательством", - сказано в пояснительной записке.

В случае смерти голос человека можно использовать только с согласия детей и супруга или родителей. Однако под регулирование попадает не любая запись: если она была записана на публичных мероприятиях, за плату или публикуется в государственных и иных интересах, согласие не нужно.

При нарушении материальные носители, содержащие запись голоса, на основании судебного решения должны быть изъяты из оборота и уничтожены. Если голос распространяется в интернете, можно потребовать удалить запись и запретить ее использование в будущем.

https://www.comnews.ru/content/231215/2024-01-29/2024-w05/1008/golosa-budut-pod-zaschitoy-gosudarstva

"Количество дипфейков растет во всем мире, а технологии ИИ достигли такого уровня, что уже практически невозможно отличить поддельные голос и внешность людей от настоящих", - считает коммерческий директор группы компаний X-Com Сергей Косецкий. "Наибольшую проблему представляют голосовые дипфейки, потому что на голос человека не действует право собственности ни в одной стране мира, если его имя не зарегистрировано как коммерческий бренд. К сожалению, этим не преминул воспользоваться криминал: статистика МВД неумолимо свидетельствует о росте количества противоправных инцидентов", - сказал Сергей Косецкий.

Опрошенные ComNews эксперты считают, что в законодательстве необходимо закрепить определение дипфейка, так как в настоящий момент не ясно, что к нему относится, а что - нет. Специалист по информационной безопасности AKTIV.CONSULTING Анастасия Калиничева добавляет, что необходимо также законодательно определить взаимосвязь сущностей дипфейков и биометрических персональных данных.

На Петербургском международном юридическом форуме - 2024 зампред комитета Госдумы по информационной политике Антон Горелкин сообщил, что в работе над законодательством наиболее эффективным будет сосредоточиться на ответственности за недобросовестное использование технологии - например, сделать дипфейки отягчающим обстоятельством. Также он считает важным не ограничиваться только регулированием, но сосредоточиться на создании технологий по распознаванию дипфейков. Эксперты в сфере информационной безопасности добавляют, что эффективным будет информирование людей о новых видах мошенничества.

По словам Сергея Косецкого, все еще нет действенных технологий для обнаружения дипфейков. При этом к моделям ИИ, позволяющим легко создавать дипфейки, доступ имеет большое количество людей, объяснила Анастасия Калиничева. "Раньше к подобным сервисам необходимо было приобретать платный доступ, теперь существует множество бесплатных вариантов", - сказала она.

Также во время обсуждения регулирования технологии поднимается вопрос о маркировке контента, созданного с помощью ИИ. Сергей Косецкий отметил, что мошенники вряд ли будут использовать маркировку, а ужесточение наказания может возыметь эффект. Однако маркировка имеет смысл для добросовестных создателей контента.

Ведущий юрисконсульт практики интеллектуальной собственности юридической компании "ЭБР" и эксперт Moscow Digital School Спартак Хулхачиев отметил, что создавать регулирование сложно, так как юридическая сфера не всегда готова ответить актуальным и продуманным до мелочей регулированием на развитие новых технологий.

https://www.comnews.ru/content/222716/2022-10-21/2022-w42/gosduma-vzyalas-za-dipfeyki

Новости из связанных рубрик