Липовый листок: в России искусственный интеллект научился выявлять поддельные паспорта

Специалисты называют нейросети перспективным инструментом против фальшивых документов
Дмитрий Булгаков
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

Российские ученые обучили искусственный интеллект (ИИ) определять поддельные паспорта. Новая технология может проверять более 500 шаблонов удостоверений личности самых разных стран и регионов мира — от ЕС до Океании — и способна помочь в борьбе с мошенниками и террористами. Подробности о том, как нейросети применяют для выявления фейковых документов и смогут ли они поставить точку в войне с фальшивками, — читайте в материале «Известий».

Интеллектуальный подход

О том, что искусственный интеллект удалось обучить обнаружению поддельных паспортов всех стран и юрисдикций мира, заявили ученые из российской компании Smart Engines. Созданная ими антифрод-система способна анализировать не только основной разворот, но и все страницы документа.

В общей сложности ИИ может проверять свыше 500 шаблонов паспортов, включая удостоверения личности государств Евросоюза, СНГ, Ближнего Востока, Южной, Центральной и Северной Америки, Азии, Африки, Индии, Новой Зеландии, Австралии и Океании. В ходе обучения специалисты использовали подход one-shot learning.

Фото: РИА Новости/Михаил Мокрушин

— Это означает, что для добавления нового шаблона документа ИИ не нужно тренировать на сотне примеров и показывать всевозможные подделки, — поясняет гендиректор Smart Engines, доктор технических наук Владимир Арлазаров. — Алгоритмам необходимо всего одно изображение (эталон) документа, а затем они сами найдут аномалии, при наличии, на других образцах.

При этом сама проверка ведется в режиме мультиспектральности, то есть сразу в трех диапазонах: видимом, ультрафиолетовом и инфракрасном, что в разы повышает шансы на выявление фальшивки. Российские разработчики надеются, что созданная ими антифрод-система в перспективе поможет снизить число мошенничеств с использованием поддельных документов и усилить борьбу с терроризмом.

Механизмы проверки

Как говорит в беседе с «Известиями» старший исследователь данных в «Лаборатории Касперского» Дмитрий Аникин, сегодня технологии машинного обучения достаточно хорошо зарекомендовали себя для решения различных задач в области технического зрения, включая проверку документов или фотографий. Дело в том, что для каждого удостоверения личности разработаны особые нормы его оформления — например, шрифт и размер машиночитаемой записи, цвета и местоположения голографических изображений.

— Зная эти требования, а также имея большой набор данных изображений паспортов, специалисты могут обучить модель компьютерного зрения, которая впоследствии будет определять подлинность того или иного документа, — соглашается ведущий эксперт по сетевым угрозам и веб-разработчик компании «Код безопасности» Константин Горбунов.

Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

По словам специалиста, применение ИИ для выявления поддельных документов актуально во многих сферах. Например, такие системы могут использоваться при регистрации граждан в ведомствах, миграционной службе, государственных органах безопасности, аэропортах, банках, туристических агентствах и других местах, где требуется проверка личности.

В то же время, как отмечает Дмитрий Аникин, несмотря на все сильные стороны, нейросети, как и любые другие сложные решения, подвержены своим уязвимостям. Существуют техники, способные обманывать алгоритмы, но все они носят вероятностный характер и не гарантируют стопроцентного результата.

— Кроме того, о подобных техниках хорошо известно специалистам, поэтому системы машинного обучения могут защищаться от них дополнительными средствами, — подчеркивает эксперт.

В свою очередь продукт-менеджер R-Vision SIEM Виктор Никуличев считает, что если модель ИИ простая, то, зная механизм ее работы, киберпреступник способен воспользоваться слабыми местами в алгоритмах для аутентификации. Кроме того, хакеры могут задать свои метаданные изображения, чтобы добавить реалистичности фотографии документа, если человека идентифицируют именно при помощи такого снимка. И в этом преступникам помогает скандально известный сервис OnlyFake.

Робот против робота

Сайт OnlyFake, генерирующий фотографии поддельных документов, уже успел привлечь внимание специалистов по кибербезопасности со всего мира — «Известия» рассказывали о нем ранее.

Фото: РИА Новости/Александр Сухов

Нейросеть от анонимных разработчиков научилась выдавать изображения паспортов и водительских прав 26 государств, включая Россию, США, Великобританию, Австралию, Канаду и ряд стран Евросоюза. При этом результат получается столь реалистичным, что позволяет проходить проверку на криптобиржах.

— При помощи OnlyFake можно даже указать устройство, с которого была сделана фотография, задать геолокацию, а также скорректировать дату и время, — отмечает Виктор Никуличев.

Но может ли ИИ позволить преступникам создавать не фальшивые снимки, а сами поддельные документы? По мнению Константина Горбунова, теоретически такое возможно, поскольку современные ИИ-модели способны не только классифицировать уже существующие изображения, но и генерировать новые.

В то же время для получения неотличимой от оригинала фальшивки злоумышленникам потребуется датасет внушительного размера, иначе возникнет риск ошибки. С этим согласен и Дмитрий Аникин: использование таких технологий может сопровождаться различными визуальными артефактами (в отличие от работы более простых алгоритмов), которые могут детектироваться как защитными системами, так и человеческим глазом.

— Поэтому пока нельзя сказать, что применение ИИ представляет значимую угрозу с точки зрения массового создания таких подделок, — считает специалист.

Фото: ИЗВЕСТИЯ/Алексей Майшев

Игра на опережение

По мнению Константина Горбунова, в перспективе антифрод-системы действительно могут автоматизировать ручные проверки во многих организациях и сервисах, использующих копии и сканы документов для подписания договоров и так далее. Это возможно, если свести к минимуму риски, связанные с утечками информации, обеспечив комплексную безопасность хранилища исходного кода и наборов данных для обучения моделей.

С другой стороны, как говорит Виктор Никуличев, сегодня существует угроза роста числа мошеннических схем, в основе которых лежат фейковые бумаги (или их снимки), созданные при помощи нейросетей. Однако со временем средства защиты научатся распознавать максимально реалистичные подделки, считает эксперт.

— Развитие сенсорных технологий помогает собрать всё больше информации о реальных документах, что дает специалистам по кибербезопасности стратегическое преимущество при их комбинации с передовыми методами ИИ, — отмечает в беседе с «Известиями» директор направления цифровизации клиентского сервиса «Лиги цифровой экономики» Дмитрий Силуянов.

С тем, что «гонка вооружений» в сфере искусственного интеллекта будет всегда не в пользу злоумышленников, согласен и Константин Горбунов. Причина кроется в том, что у оператора де-факто больше данных для обучения моделей, а значит, выше точность работы системы. Кроме того, у него, в отличие от киберпреступников, есть оперативный доступ к изменениям требований оформления бумаг.

Фото: ИЗВЕСТИЯ/Анна Селина

В свою очередь, Виктор Никуличев отмечает, что уже сегодня валидация оригиналов документов находится на высоком уровне, а в качестве перспективного направления особо выделяется авторизация по QR-коду. К примеру, в таком формате уже можно предъявлять водительское удостоверение сотрудникам ГИБДД через сервис «Госуслуги Авто».

— Это безопасный, надежный и простой путь для работы с документами, — заключает эксперт. — В целом движение в сторону дополнительного регулирования и появления единой точки верификации будет способствовать защите от подделок.