Перейти к основному содержанию
Прямой эфир
Главный слайд
Начало статьи
Обмани ее: российская нейросеть определит фейковые видео
2020-06-24 12:54:23">
2020-06-24 12:54:23
Озвучить текст
Выделить главное
вкл
выкл

Проверить подлинность видео позволит российская система искусственного интеллекта, способная находить на записях дипфейки — привнесенные фрагменты, которых не было в оригинале. Точность работы этой нейросети составляет около 80%, благодаря чему ее разработчики заняли третье место на престижном международном конкурсе Deepfake Detection Challenge — всего в нем участвовало 2,2 тыс. команд из разных стран. В будущем новая система будет использована для разоблачения фейковых роликов, а также для защиты от мошенничества банков и сервисов online-платежей с биометрической идентификацией.

Фейс-чекинг

В отечественной разработке используются сразу две системы искусственного интеллекта, каждая из которых отвечает за разные этапы обработки видео.

В начале процесса первая нейросеть определяет местонахождение лица человека на изображении и вырезает эту часть из записи, — рассказал старший специалист по машинному обучению компании NtechLab (технологический партнер госкорпорации «Ростех») Азат Давлетшин. — Затем вторая часть алгоритма классифицирует полученный фрагмент, определяя вероятность его подлинности.

Кнопка плей
Фото: Depositphotos

Для успешной работы российская нейросеть проходила обучение на большом объеме видеозаписей (их было около 100 тыс.), которые содержали как оригинальные ролики, так и образцы с привнесенной фейковой информацией. При этом обучающая выборка отличалась большим разнообразием, поскольку для ее производства был использован труд нескольких тысяч актеров.

Как правило, в этих целях разработчики берут умеющую распознавать картинки нейросеть и дообучают ее для определения дипфейков — в результате она хорошо функционирует на тренировочных видео, но ее эффективность при анализе новых данных оставляет желать лучшего, — пояснил Азат Давлетшин. — Чтобы этого избежать, мы обучали систему на изображениях, которые были предварительно искажены (принцип аугментации).

По словам эксперта, данный подход позволил заметно повысить эффективность работы с новой информацией и увеличить точность распознавания дипфейков до 80%.

В тройке лидеров

Российская система в первую очередь будет нацелена на разоблачение высококачественных подделок, которые сложно распознать экспертам. Согласно мнению специалистов, это связано с особенностями человеческого восприятия, которое направлено не на проверку реальности происходящего, а на распознание личности. Нейросеть же концентрируется на деталях, которые человеческий глаз обычно пропускает — в частности, к ним относятся малозаметные блики на изображении, легкие искажения в лицевой мимике и т.д. И именно они позволяют системе отличить подделку от оригинала.

Человек с планшетом
Фото: Depositphotos

Нейросеть для проверки подлинности видео уже получила признание на международном уровне. В частности, отечественная разработка заняла призовое третье место на крупнейшем конкурсе по распознаванию дипфейков Deepfake Detection Challenge. Организованное компаниями Amazon, Facebook и Microsoft мероприятие проходило в онлайн-режиме в течение четырех месяцев и собрало 2,2 тыс. команд, состоящих из специалистов по машинному обучению со всего мира. Именно поэтому призеров конкурса, объявленных в июне 2020 года, можно назвать лидерами своего направления в создании нейросетей, разработки которых будут востребованы на рынке.

Игра на опережение

Ожидается, что в будущем система будет использована, например, журналистами для определения фейковых видео. Она также пригодится людям, которых хотят скомпрометировать с помощью поддельных изображений. При этом для каждой конкретной задачи нейросеть станет дообучаться под цели клиента для повышения ее максимальной эффективности в заданных условиях работы.

— Системы для проверки достоверности видеозаписей становятся всё более актуальным средством контроля, поскольку растет количество и качество дипфейков, с помощью которых злоумышленники пытаются нарушить репутацию известных людей, — отметил доцент факультета компьютерных наук НИУ ВШЭ Антон Конушин. — Необходимы такие решения и в судебной практике — в частности, для установки подлинности вещественных доказательств.

По словам эксперта, с такими подделками сейчас может столкнуться любой человек — это происходит из-за доступности программ для работы с видео. В частности, некоторым из них для генерации компрометирующего видео достаточно всего одной фотографии человека.

Фейковые новости
Фото: Depositphotos

Впрочем, в будущем станет возможен и массовый обман населения с помощью дипфейков.

Масштабные атаки с использованием дипфейков могут появиться уже в ближайшие годы, и тогда применение технологий для их выявления будет иметь большую цену, — сообщил пресс-секретарь компании NtechLab Николай Грунин. — Поэтому мы сейчас действуем на опережение и заранее изготавливаем броню на случай возможного удара.

Планируется, что новые нейросети найдут применение в банковской сфере и в сервисах онлайн-платежей, которые используют биометрическую идентификацию по видео и хотели бы оградить своих клиентов от случаев мошенничества.

В настоящее время система искусственного интеллекта близка к практическому применению, и основанные на ней решения могут появиться на рынке уже в ближайшие месяцы.