Контент от ИИ — не благо, а опасная практика?
Яковлева основатель маркетингового агентства PRO M8
Искусственный интеллект уже довольно прочно вошел в жизнь многих специалистов из самых разных сфер. Его внедряют в образовании, дизайне, медицине. Но, к сожалению, его применение не всегда приносит пользу, а иногда и вовсе потенциально опасно. Недавно семья из Великобритании собрала и употребила в пищу грибы, ориентируясь на информацию из книги, написанной с использованием ИИ. И попала в больницу с отравлением. Об опасности информации, созданной с применением ИИ, и о том, специалистам каких сфер нужно проявить особую бдительность при его использовании, рассказывает основатель маркетингового агентства PRO M8 Регина Яковлева.
Проблемы, возникающие при применении ИИ для создания контента
Одна из важнейших проблем, о которой я уже упоминала выше — это вероятность нанесения вреда здоровью и даже жизни людей. И неправильное распознавание съедобных грибов с использованием книги, написанной в соавторстве с ИИ — не единственный тому пример.
Широкий резонанс получила история о том, чем закончилась попытка обывателя усовершенствовать кулинарный рецепт. Он спросил у ИИ, как улучшить оливковую заправку чесноком без нагрева, и получил совет оставить смесь в тепле на неделю. В этом случае удалось избежать трагедии — кулинар вовремя заметил, что масло стало странно пузыриться, и в пищу его употреблять не стал. Когда пользователь решил разобраться в причинах неудачи, он с ужасом узнал, что именно таким способом можно вырастить опасную бактерию, вызывающую смертельное заболевание — ботулизм.
ИИ дает десятки вредных советов пользователем. Это и рекомендация пристально смотреть на солнце невооруженным взглядом на протяжении 5-30 минут с целью улучшить здоровье, и совет закрепить начинку на пицце клеем, и др.
Использование ИИ при создании контента спровоцировало появление шквала дипфейков. Нейросети так искусно изменяют видео, что с первого взгляда бывает довольно сложно определить, участвует в нем реальный человек или созданный и помощью ИИ. Некоторые из дипфейков безобидны, но отдельные из них применяются для мошенничества и дискредитации личности.
От дипфейков уже пострадал директор Binance Патрик Хиллманн, от лица которого злоумышленники просили вознаграждение за размещение ценных бумаг на бирже. Еще один нашумевший случай — использование изображения Тома Хэнкса в рекламе стоматологии, что не было с ним согласовано.
Дипфейки постоянно совершенствуются. И впоследствии они могут применяться для дискредитации политиков и публичных лиц, создания фейковых новостей с целью посеять информационный хаос. Дипфейки могут быть опасны не только для публичных личностей, но и для обычных людей, которых могут шантажировать ложными аудиозаписями и видео.
Сейчас активно обсуждается необходимость дополнительной защиты прав на изображения, размещенных в интернете, чтобы предотвратить недобросовестное их использование с применением ИИ.
Сферы, в которых применение ИИ может нанести наибольший вред
В медицине активно тестируется функция постановки диагноза нейросетью. Одна из проблем, возникающих при таком использовании ИИ — постановка ложных диагнозов.
В некоторых экспериментах искусственный интеллект продемонстрировал очень многообещающие результаты. Например, группа исследователей разработала в 2019 году систему на базе ИИ, которая смогла анализировать маммограммы и довольно эффективно выявлять рак.
Но отдельные исследования показали, что нейросеть может не учесть нюансы истории болезни пациента и его состояния, что может привести к ложноположительным или ложноотрицательным результатам обработки и интерпретации данных. А как следствие — к неправильным диагнозам. Это может привести к запоздалому началу борьбы с заболеванием, ненужным неприятным исследованиям вроде биопсии. Не говоря уже о том, что лечение может быть назначено человеку без необходимости. Поэтому так важно, чтобы люди участвовали в процессе диагностики и перепроверяли результаты, полученные с помощью ИИ, в медицине.
Еще одна сфера, в которой активно используется ИИ — это беспилотное управление автомобилями. Увы, такие системы пока еще далеки от совершенства. Уже известны случаи, когда автопилот неверно интерпретировал дорожную ситуацию. В США было инициировано около 40 расследований ДТП, которые могли произойти из-за использования автопилота.
С учетом возникающих проблем системы постоянно дорабатываются, но их создателям предстоит еще немало работы, чтобы минимизировать риски возникновения ДТП с участием машин с автопилотами.
Как бороться с проблемами, возникающими из-за использования ИИ в создании контента: запреты, технологии, маркировка
Так как ИИ начал широко использоваться для создания контента не так давно, нет каких-либо единых правил и нормативов, регулирующих эту сферу.
Возможно, действенным шагом в обеспечении безопасности пользователей будет требование об обязательном информировании о применении ИИ. Например, чтобы покупатель еще на обложке видел пометку вроде "Создано в соавторстве с ИИ", и сам мог решить, приобретать ли такую литературу. А уж если и решался бы на покупку, то более скептично относился бы к ее содержимому, чтобы не произошло трагедии, как в случае с книгой о грибах. Сделать исключение можно, к примеру, для художественной литературы.
Вместе с развитием нейросетей для генерации контента совершенствуются и сервисы, которые позволяют определить созданные с помощью ИИ тексты и видео. Они уже сейчас есть в свободном доступе. Причем работают они не только с текстами, но и с дипфейками, успешно их выявляя. Такие сервисы можно использовать для того, чтобы проверять контент, и при необходимости не допускать его публикацию.
Критическое мышление при чтении и просмотре контента
Для минимизации вреда от контента, сгенерированного ИИ, стоит развивать у подрастающего поколения критическое мышление. Можно даже добавить соответствующие предметы в школьную программу. Человек с критическим мышлением может использовать разные инструменты для проверки и фильтрации информации и самостоятельно отсеивать фейки и контент с неточностями.
Запрет на генерацию контента нейросетями: сферы, в которых это может стать необходимым шагом
Возможно, стоит рассмотреть полный запрет или некоторые ограничения на генерацию контента в тех сферах, в которых ошибка может привести к серьезным неприятным или даже трагичным последствиям — это медицина, образование, юриспруденция, журналистика.
Если учебные пособия, энциклопедии или инструкции, написанные с применением ИИ, будут использовать медики и фармацевты, это может повлечь за собой серьезные последствия для здоровья и жизни людей. Соответственно, еще одна сфера, в которой, как я считаю, есть смысл ввести полный запрет на генерацию контента ИИ (или, как минимум, осуществлять жесткую проверку информации) — это образование.
Генерация контента в юриспруденции может привести к тому, что граждане без помощи квалифицированного юриста будут неверно интерпретировать законы. Журналистика тоже должна быть под пристальным контролем. Неточности в новостях могут привести к возникновению фейков, дезинформации.
Как наладить контроль за контентом, созданным ИИ, на практике
На мой взгляд, международное сотрудничество и обмен опытом позволили бы создать единый список требований к применению ИИ. Определив некие стандарты глобально, можно было бы в дальнейшем разрабатывать на этой основе и локальные правила с учетом правовых, этических и социальных особенностей его внедрения.
При этом каждому из нас нужно понимать, какие риски может нести применение нейросетей при создании текстов и видео. И самостоятельно отсеивать сомнительный контент, перепроверять важную информацию в нескольких авторитетных источниках.