Искусственный интеллект за год выявил 10 тыс. пыток оформить займы по поддельным паспортам

Речь идет о системе для автоматического распознавания паспортов от Smart Engines. Представители ПАО МФК "Займер" уточнили, что обработка персональных данных происходит в контуре кредитной организации, изображения документов не передаются в сторонние сервисы, и в процессе не участвуют облачные верификаторы.
"Технологии распознавания на высочайшем уровне справляются с задачей моментального ввода данных из документов, при этом не создают ситуаций ложных срабатываний, когда подлинный документ неверно принимается за подделку и клиент получает отказ", - рассказал генеральный директор ПАО МФК "Займер" Роман Макаров.
На вопрос, как система понимает, что документ принадлежит другому человеку, представитель пресс-службы ООО "Смарт Энджин Сервис" (Smart Engines) объяснил, что есть несколько способов. Один из них - сверка фотографии из паспорта с селфи. Также нейросетевой ансамбль "Шерлок" (Который распознает паспорт РФ, в том числе, с рукописным заполнением, на фотографии или скане. - Прим. ComNews), мгновенно проводит более 500 проверок документа. Искусственный интеллект определяет признаки модификаций, включая "затертые" и "отфотошопленные" места, многократное сжатие и изменение метаданных файла, а также выявляет документы, синтезированные из нескольких исходников - в том числе дипфейки.
С помощью ИИ можно проверить действительность документа, валидность бланка, наличие спецэлементов дизайна, способ нанесения данных, начертание шрифтов и соблюдение правил заполнения документов. Если один из параметров кажется системе подозрительным, она сигнализирует об этом.
Также система за 0,15 секунд вводит данные из паспорта в заявку на заем с мобильного устройства. Распознавание на сервере происходит со скоростью 55 изображений в секунду.
Кроме "Займера", Smart Engines работает с "Севергазбанком", "Металлинвестбанком" и другими клиентами.
Представители ИТ-компаний отмечают, что решения по проверке документов популярны в финансовой сфере, но также есть и в госсекторе. Системы используют и на других цифровых платформах: сервисах для сдачи недвижимости в аренду, онлайн-продажи билетов. Они могут проверять денежные банкноты, государственные удостоверения, юридические доверенности и другие документы.
В 2024 г. ComNews писал о разработке Smart Engines, которая проверяет на подлинность паспортов со всего мира. Система может проверить более 500 шаблонов паспортов и сканировать не только разворот, но и остальные страницы. Тогда разработчики проекта рассказывали, что алгоритмам необходимо одно изображение документа, по которому они находят несоответствия на других образцах. Система извлекает данные из паспорта и проверяет его на подлинность и действительность в трех диапазонах: оптическом, ультрафиолетовом, инфракрасном.
Тогда гендиректор Smart Engines Владимир Арлазаров заявлял, что все конкуренты только зарубежные. Однако для проверки подлинности документов есть решения от российских разработчиков: ООО "Дибрейн" (DBrain), ООО "Биорг" (Beorg). Из иностранных компаний Microsoft, Google и Amazon предлагают технологии распознавания и проверки документов в составе облачных платформ.
Может ли ИИ ошибаться при проверке документов
Риск ошибок при автоматической проверке документов существует, но его масштаб часто преувеличивают, считает директор по развитию технологий ООО "Артезио" (Artezio, входит в ГК "Ланит") Сергей Матусевич. "По нашей практике, современные системы достигают точности распознавания выше 99% при работе с качественными изображениями документов", - рассказал Сергей Матусевич.
На вопрос, насколько вероятна ошибка со стороны ИИ, ML-архитектор ИИ-платформы AiLine Softline Digital (ГК Softline) Дмитрий Федотов ответил, что такие модели постоянно находятся в зоне риска: "Пока разработчики регулярно их дообучают и поддерживают в обслуживании, мошенники пытаются их обмануть. Это бесконечный вызов в информационной безопасности, поэтому модель, которая умеет хорошо определять поддельный документ сегодня, вряд ли будет так же эффективна через год-два. Особенно в условиях, когда активно развиваются генеративные технологии. Модель рано или поздно начнет допускать ошибки. Важно вовремя реагировать на них и вносить изменения, которые будут учитывать ранее незамеченные трюки злоумышленников".
Ложноположительные срабатывания также зависят от настроек чувствительности системы, объяснил директор по развитию технологий Artezio Сергей Матусевич. При слишком строгих настройках добросовестные клиенты могут получить отказы, а при мягких - пропустить мошенников.
Также риск ошибки зависит от качества модели ИИ, масштабов обучающего набора данных и уровня проработки алгоритмов, объяснил ведущий эксперт по сетевым угрозам компании ООО "Код Безопасности" Константин Горбунов. Он утверждает, что современные решения на базе машинного обучения и нейронных сетей имеют высокую точность. "Обмануть ИИ становится все сложнее за счет всестороннего анализа входящего документа, включая его метаданные. Также можно пойти "от обратного" и обучить ИИ-модель на поддельных документах, чтобы распознавать закономерности, используемые мошенниками", - сказал Константин Горбунов.
Безопасно ли использовать ИИ при обработке данных
Также существует вопрос безопасности моделей, которые работают с чувствительными данными. Менеджер по развитию ООО "Юзергейт" (UserGate) Александр Луганский делит общую безопасность на несколько уровней. "Первый - уровень безопасности цифрового периметра компании, в которой происходит обработка данных. Необходимо обеспечить защиту организации от инцидентов и утечек. Второй - безопасность ПО, которое лежит в основе конкретного ИИ. Здесь необходимо использование механизмов безопасной разработки. Только при соблюдении всех этих условий можно говорить о безопасности данных", - рассказал Александр Луганский.
Инженер-разработчик отдела систем анализа машинных данных ООО "Стэп Лоджик" (Step Logic) Павел Пилькевич считает, что технология безопасна, так как при обработке изображения ИИ оперирует специальными паттернами, выделяя их из кода анализируемой картинки, но не отдельными элементами - в таком ИИ нет базы с чувствительными данными, которые он обработал. Однако риски все равно существуют: безопасными необходимо сделать среду хранения и передачи анализируемых файлов.
Эксперт по информационной безопасности АО "Инфозащита" (iTPtotect) Евгения Галушко также сказала, что если злоумышленники попытаются перехватить данные, они не смогут получить доступ к исходным файлам, так как система работает на принципах строгой минимизации данных. ИИ анализирует только то, что необходимо для проверки подлинности, не сохраняя избыточной информации.
Однако директор по развитию технологий Artezio Сергей Матусевич считает, что риск получения данных третьими лицами остается высоким, даже при обработке данных в закрытом контуре. "Это связано с комплексом факторов: несовершенством систем защиты периметра, возможностью инсайдерских угроз, атаками на цепочки поставки ПО и потенциальными уязвимостями в алгоритмах машинного обучения, - объяснил Сергей Матусевич. - Построение безопасной системы требует многоуровневого подхода. Недостаточно просто не отправлять данные во внешние сервисы - необходимо обеспечить строгое разграничение прав доступа внутри организации, регулярно проводить тестирование на проникновение, осуществлять контроль целостности данных и постоянно мониторить аномальную активность".
Проблемой также остается человеческий фактор. По статистике Artezio, около 60% инцидентов с утечками данных связаны с человеческими ошибками или злонамеренными действиями сотрудников.
