Анна
Швецова

корреспондент ComNews.ru
© ComNews
05.02.2024

О дипфейках пользователи сети говорят уже не первый год, но в 2023 году они особенно сильно взволновали россиян. Теперь дипфейки выступают на прямой линии президента, отвечают на вопросы за Жириновского и говорят голосом Елены Блиновской. Кроме этого злоумышленники используют их при мошенничестве и для создания фейков. Депутаты Госдумы уже предложили внести изменения в законы. Но так ли страшна технология.

Предтеча дипфейка существует еще с 1997 года. Тогда появилась программа Video Rewrite, которая позволяла менять мимику человека и подставлять ему любые аудиодорожки.

Однако неправильно называть такие ролики дипфейком. Дипфейк - поддельные фотографии, видео и аудиозаписи, которые синтезированы с помощью искусственного интеллекта (ИИ).

Считается, что первые "настоящие" дипфейки появились в 2017 году. Тогда пользователь Reddit с ником Deepfakes опубликовал фальшивые ролики с участием обнаженных звезд, что вызвало большой резонанс в Сети. С тех пор технология развивалась, становилась доступнее, и люди все чаще стали опасаться ее.

Однако в прошлом году случился взрыв популярности дипфейков в связи с бумом интереса к искусственному интеллекту. В мае 2023 года Reuters cо ссылкой на компанию в области ИИ DeepMedia сообщил, что, по сравнению с аналогичным периодом 2022 года, количество видеофейков выросло в три раза, аудиофейков - в восемь. А согласно отчету AI Index Report 2023, за последние 10 лет количество этических нарушений, связанных с ИИ, выросло в 26 раз. Если раньше доступ к технологии был у ограниченного числа людей, то сейчас простенький дипфейк может сделать практически каждый за пару кликов. Хотя создать качественную подделку все еще сложно.

В прошлом году было сразу несколько громких случаев с дипфейками и близкими к ним технологиями. К примеру, на прямой линии с Владимиром Путиным поговорил его двойник, созданный студентом СПбГУ. Летом на Петербургском международном экономическом форуме "ожил" Владимир Жириновский - цифрового двойника презентовала партия ЛДПР.

В прошлом году произошел громкий случай с актрисой озвучки Аленой Андроновой. В 2019 году она делала проект для банка "Тинькофф", а в 2022-м узнала, что ее голос звучит в порнорекламе, эротических чатах и стримах. Оказалось, ее данные доступны для синтеза речи на сайте организации. Алена Андронова подала в суд на компанию.

https://www.comnews.ru/content/228550/2023-09-04/2023-w36/1030/k-chemu-privedet-iniciativa-aktrisy-dublyazha-aleny-andronovoy-podavshey-isk-k-ao-tinkoff-bank-za-nezakonnoe-ispolzovanie-ee-golosa

Самые популярные дипфейки связаны с эротическим контентом. В 2019 году, по статистике компании по кибербезопасности Deeptrace, 96% всех дипфейков в Сети были порнодипфейками. Вряд ли ситуация сильно поменялась с того времени.

Согласно отчету Pindrop, 60% опрошенных "очень" или "чрезвычайно" обеспокоены дипфейками, а более 90% выражают некоторую озабоченность. И действительно, опасения не напрасны: тренд с дипфейками подхватили мошенники. К примеру, совсем недавно они сгенерировали голос Елены Блиновской, позвонили ее близким, чтобы выманить деньги.

Депутаты Государственной Думы всерьез обеспокоены тенденцией. "Уже сегодня с помощью нейросетей успешно обманывают наших граждан, генерируя их лица как на фото, так и на видео, с помощью которых угоняются личные аккаунты и воруются средства с банковских счетов", - написал в Telegram-канале председатель ИТ-комитета Госдумы Александр Хинштейн.

Александр Хинштейн высказал опасения по поводу дипфейков еще летом прошлого года и пообещал в осеннюю сессию разработать законопроект. Пока видимых подвижек нет, но недавно он сообщил, что вместе с профильными ведомствами работает над вопросом и планирует внести изменения в закон о персональных данных.

https://www.comnews.ru/content/222734/2022-10-24/2022-w43/gosduma-ozabotilas-kontrolem-za-dipfeykami-videokontente-k-chemu-privedet-eta-iniciativa

На прошлой неделе об инициативе по защите голоса человека на пресс-конференции в Москве рассказал сенатор РФ, заместитель председателя совета по развитию цифровой экономики при Совете Федерации Артем Шейкин.

https://www.comnews.ru/content/231215/2024-01-29/2024-w05/1008/golosa-b…

Однако дипфейки напугали не всех. Некоторые пользователи Сети даже приветствуют повсеместное распространение "голых" фальшивых видео - чем больше их будет в Сети, тем меньше поводов переживать, ведь любой ролик легко может оказаться подделкой и ценность "компромата" будет практически нулевой.

Знаменитости уже стали оправдывать неудачи словами: "Это не я, это дипфейк". Например, Виктория и Вадим Цыгановы после интервью Юрию Дудю* заявили, что видео фальшивое. Блогер Сергей Косенко, выложивший видео, на котором бросает двухмесячного сына в снег, сказал, что это был дипфейк. Однако пока им никто не поверил, но тенденция ясна.

Все же дипфейки - не зло в чистом виде, их используют и для благих целей. К примеру, музей во Флориде "воскресил" Сальвадора Дали: копия художника пообщалась с посетителями и рассказала о творчестве Дали. Еще один пример позитивного использования технологии - дипфейк футболиста Дэвида Бекхэма, который на девяти языках рассказывал в социальной рекламе об опасности малярии. Дипфейки даже помогают при лечении расстройств: инженеры-исследователи Кейт Глазко и Ивэй Чжэн с помощью дипфейков снижали тревогу у людей с афантазией - отсутствием воображения. С помощью поддельных видео они воспроизводили реальные ситуации, в которые могли попасть люди. Дипфейки полезны в кинематографе: с помощью них можно сделать качественный дубляж.

Может, и правда не так страшен дипфейк, как его малюют? Все-таки уже много лет существует фотошоп, который тоже может создать фальшивые изображения для мошенничества, шантажа и пропаганды. И научиться делать правдоподобные "фейки" там совсем не сложно. Однако все уже привыкли к фотошопу и страха перед ним нет.

Да, людям все сложнее отличить фейк от реальности, но они уже очень долго (возможно, с зарождения человечества) живут с тем, что их пытаются постоянно обмануть. Способы борьбы с неправдой меняются не сильно: нужно быть внимательнее, не доверять всему, что пишут и показывают (особенно в Сети), черпать информацию из надежных источников.

Однако это не значит, что закон о дипфейках, их маркировка не нужны. Люди должны иметь возможность защитить свои права и знать правду: фейк перед ними или нет. Однако паника из-за дипфейков излишня. Подобное мы проходили, и не раз. Главное - почаще напоминать себе и родным, что не стоит верить всему, что написано в интернете и слышно на другом конце провода.

https://www.comnews.ru/content/222716/2022-10-21/2022-w42/gosduma-vzyalas-za-dipfeyki

* Внесен Минюстом РФ в реестр иноагентов