Армен Бекларян, доцент, академический руководитель программы "Бизнес-аналитика и системы больших данных" Высшей школы бизнеса НИУ ВШЭ
Армен
Бекларян

доцент, академический руководитель программы "Бизнес-аналитика и системы больших данных" Высшей школы бизнеса НИУ ВШЭ
© ComNews
15.08.2024

Госдума разрабатывает закон о маркировке контента, созданного нейросетями. Что может повлечь за собой данная инициатива и насколько необходимо регулировать производство контента, созданного ИИ?

Сам факт превалирования сгенерированной информации над "естественной" не вызывает особого удивления: согласно данным Statista, ежедневно создается около 400 млн Тбайт данных, то есть около 150 зеттабайт в год. В сравнении с 2010 годом (2 зеттабайта) объем данных на просторах интернета увеличился более чем в 70 раз. При этом по-прежнему основной вклад (примерно 54%) в циркуляцию трафика остается за видеоконтентом. Далее следует социальные сети (около 13%), игры (10%) и поисковики (6%).

На фоне подобной динамики, а также с учетом достижений генеративного ИИ нет ничего удивительного, что как анализ имеющейся информации, так и создание нового контента происходит с использованием современных моделей. Тем не менее, невзирая на успехи в области генерации текстов и видео, остается ряд ключевых рисков:

  • "Чистота", объективность и корректность данных, на которых происходило предобучение моделей. В процессе создания моделей ИИ используется стадия предобучения, в рамках которой модель по сути "познает мир" и приобретает свою базу знаний. Если информация, используемая на этой стадии, не в полной мере объективна (с ведома разработчика или нет), то подобное смещение в знаниях и мнении продолжит проявляться и далее в рамках уже эксплуатации модели пользователями.
  • Состязательные атаки (Adversarial Attacks) на ИИ. Подобный механизм либо напрямую использует информацию уже обученных моделей (в результате диверсий или нарушений контура безопасности модели), либо в скрытой форме смещает модель в процессе дообучения в период эксплуатации.

Состязательные атаки проектируются, чтобы использовать уязвимости алгоритмов машинного обучения, и часто могут быть выполнены незаметно для системы или пользователя.

Широко известные примеры:

  • 2020 г. Взлом системы камер и помощи водителю MobilEye автомобилей Tesla: небольшая наклейка на дорожном знаке заставляет автомобили автоматически разгоняться до 50 миль в час.
  • 2016 г. Новейшему самообучаемому чат-боту Microsoft скормили контент, сделавший из него активного расиста.
  • Отравление данными в финансах: добавление небольшого количества подготовленных транзакций заставляет ошибаться продвинутые системы оценки кредитных рисков.
  • Галлюцинации нейронных сетей. Явление галлюцинаций или бреда нейронных сетей, когда модель выдает заведомо ложный или "вымышленный" результат, хотя и возникает не так часто (на фоне общего числа запрос-ответ), тем не менее, может сыграть роковую роль. Истинные причины такого поведения пока что не до конца изучены, и даже не совсем ясно, а надо ли полностью избавлять нейронные сети от подобного эффекта: ведь, возможно, креатив и творчество в солидной степени могут зависеть от подобного "отклонения".

Борьба с обозначенными рисками, безусловно, ведется, но темпы развития самих моделей в разы выше. Таким образом, инструменты контроля качества работы генеративных моделей должны, в первую очередь, опираться на этику и соответствующие кодексы, которым обязаны следовать как разработчики, так и пользователи моделей.

Маркировать или нет

Ответ на данный вопрос в большой степени зависит от отрасли, а также от специфики сгенерированного контента. В частности, в вопросах проектной документации, отчетности, законопроектов и иной бюрократизированной формы деятельности, безусловно, необходим водяной знак, так же, как и перечень промптов, а также версия модели, на базе которой проходила генерация контента. При этом в случае с генерацией рекламных креативов кажется, что подобная маркировка будет излишней.

Маркируют ли компании публикации и изображения, созданные нейросетью

Дело в том, что на данный момент основными пользователями моделей генеративного ИИ являются линейные сотрудники, которые таким образом упрощают себе рутинную работу. Естественно, сами они маркировать такой контент не будут, ибо это напрямую скажется на их нагрузке и зарплате. В целом, верным будет замечание, что ровно как сотрудники, не использующие ИИ сегодня, в скором будущем будут замещены теми, кто освоил промпт-инжиниринг, так и работодатель, не вводящий нормы использования генеративных моделей, обречен на убытки.

Регулирование контента, сгенерированного нейросетями

Как я уже отметил, работодатели вынуждены выводить соответствующие нормы. Аналогичные меры должны вводить вузы, государственные организации и ФОИВы. Думаю, в регулировании контента целесообразно идти от решения задач на местах – локальных "этических" кодексов. И уже после накопления опыта применения, внесения правок выносить инициативу документа на государственный уровень. Эффективный федеральный закон должен базироваться на реальной практике, а она пока еще только формируется. Крайне приятно видеть НИУ ВШЭ в числе первых организаций, которые апробируют подобные кодексы, ибо Высшая школа экономики стала первым университетом в России, утвердившим декларацию этических принципов создания и использования систем искусственного интеллекта.

Доверие к сгенерированному контенту

На обывательском уровне проверка качества контента в широком смысле не велась никогда, и эпоха ИИ тут ничем ситуацию не меняет. Слепая вера всему, что пишут различные мессенджеры и социальные сети – это аспект скорее нейросоциологии, нежели передовых технологий.

Этические дилеммы

Я не сторонник внедрения подобного закона, по крайней мере, на текущем этапе развития как самих технологий генеративного ИИ, так и наших взглядов на дилемму вагонетки в контексте баланса "технология-фейк". Хотелось бы видеть (а может и взрастить) сознательных разработчиков и пользователей нейросетевых моделей, чей моральный компас обусловлен не законодательной нормой, а корректным целеполаганием вкупе с личной ответственностью. А вот что такое "корректное" – нам и предстоит совместно выработать, причем, скорее всего, на собственных ошибках.