12.09.2024

Специалисты Института искусственного интеллекта AIRI и Московского технического университета связи и информатики (МТУСИ) разработали систему, которая с помощью ИИ определяет признаки генерации синтетического голоса, которую используют телефонные мошенники. Об этом сообщили ТАСС в пресс-службе AIRI.

"[Современные технологии] позволяют создавать синтетические голоса, которые уже сейчас очень трудно отличить от настоящих. Преимущество <…> [таких ИИ-моделей как представленное решение] - в их способности учитывать контекст и знания о голосовых данных, позволяя более эффективно различать подлинный голос и его подделку. Данные сети не только распознают подделки с высокой точностью, но и способны адаптироваться к новым типам угроз. Внедрение подобных передовых методов существенно повышает уровень безопасности и защищенности от атак, основанных на подмене голоса", - приводит пресс-служба института слова руководителя научной группы "Доверенные и безопасные интеллектуальные системы" AIRI Олега Рогова.

Мошенники генерируют чужие голоса, используя технологии преобразования текста в речь и обработки голоса. Авторы предложили решение для анализа аудиоряда, производительность которого вдвое превосходит модель, созданную ранее учеными Южной Кореи и Франции. Российская разработка может использоваться для борьбы с телефонным мошенничеством или повышения безопасности систем, использующих голосовую аутентификацию, считают ученые.

"Интеграция <…> может осуществляться различными способами: от внедрения отдельного программного решения до встраивания в существующие системы безопасности. <…> Потребность в подобных технологиях высока, учитывая растущую угрозу атак с использованием синтетических голосов", - считает руководитель научно-исследовательского отдела "Интеллектуальные решения" МТУСИ Грач Мкртчян, которого цитирует пресс-служба института.

ИИ-модель вошла в десятку лучших решений международного соревнования ASVspoof 2024 Challenge.

Новости из связанных рубрик