Перейти к основному содержанию
Прямой эфир
Главный слайд
Начало статьи
Вооруженный глаз: как распознать дипфейк
2021-03-15 22:47:39">
2021-03-15 22:47:39
Озвучить текст
Выделить главное
вкл
выкл

Дипфейки — это видеоролики, в которых одно лицо подменяется другим с помощью алгоритмов машинного обучения. Если несколько лет назад подобные имитации были довольно топорными и вызывали большей частью смех, то сегодня технология качественно эволюционировала. И, как это часто бывает с новинками, немедленно была взята на вооружение криминалом. Сгенерированный компьютером голос начальника просит сотрудника перевести крупную сумму, а звезд шоу-бизнеса и политиков терроризируют фальшивыми порнороликами с их участием. Эксперты прогнозируют, что по мере сбора биометрических данных риск мошенничества возрастает. Как распознать дипфейк и какие меры вводятся для борьбы с подобного рода манипуляциями — в материале «Известий».

Кейдж и обнаженка

Считается, что первые дипфейки появились в конце 2017 года, когда пользователь Deepfakes выложил на Reddit порнографические ролики, в которых лица актеров были заменены на лица голливудских звезд. Технология разошлась по Сети и породила массу подобного контента. Чуть позже, наигравшись с роликами для взрослых, пользователи взялись за Николаса Кейджа. С помощью приложения FakeApp, запущенного в январе 2018-го, американский актер был помещен в фильмы, в которых никогда не принимал участия. А несовершенность технологии только прибавила видео веселости.

В дальнейшем опыты стали более разнообразными: Сильвестр Сталлоне «превратился» в мальчика Кевина из фильма «Один дома», Арнольд Шварценеггер «сыграл» всех персонажей во «Властелине колец», а Илон Маск «исполнил» песню «Трава у дома».

Между дипфейками есть свои различия. Наверняка многие встречали видео, на которых пользователи «примеряют маску» знаменитых политиков, дарят им свою артикуляцию и заставляют говорить странные вещи. Данный метод называется Face2Face. Подделка создается в режиме реального времени и в отличие от собственно DeepFake не подменяет одно лицо другим, а искажает мимику исходного объекта.

Однако в последние годы термин deepfake используется в широком смысле — им обозначают все типы имитирующих видео, созданных искусственным интеллектом.

Механизм работы

Дипфейки создаются при помощи метода глубокого обучения, известного как генеративно-состязательная сеть (GAN). Его суть заключается в соревновании двух нейросетей: генератора и дискриминатора. Генератор создает подделку, а дискриминатор пытается понять, настоящее перед ним изображение или нет. Чем лучше обманывает генератор, тем выше конечный результат.

Прежде созданные GAN изображения отличались довольно низким разрешением. По размытости картинки можно было легко идентифицировать запись как сгенерированную. Это ограничение было преодолено в версии ProGAN, благодаря которой разрешение подскочило до 1024×1024 пикселей.

Другая модель — StyleGAN — научилась мастерски создавать лица несуществующих людей. Нейросеть обучилась на библиотеке реальных фотопортретов и стала сама генерировать человеческие образы.

Насколько высоки результаты в генерации новых лиц, можно убедиться на примере картинки ниже. Только на одной из трех фотографий изображена реальная девушка. Она посередине.

Фото: ieeexplore.ieee.org

Как распознать подделку?

Точность и высокое качество дипфейков вызвали рост недоверия пользователей Сети к видеоконтенту. Однако при более внимательном рассмотрении в некоторых роликах заметны цифровые артефакты — недостатки, которые выдают имитацию. Для обоих поколений дипфейков (ранних недостаточно реалистичных и поздних гиперреалистичных) выявление артефактов происходит по одним и тем же участкам лица. Ученые из Университета Эрлангена–Нюрнберга описали возможные ограничения в своей статье.

Несуществующие лица. Часто у сгенерированных моделей не совпадает цвет левого и правого глаза. В природе явление гетерохромии встречается весьма редко, поэтому смешанные или отличающиеся цвета могут стать сигналом для опознания дипфейка. Также стоит иметь в виду, что расстояние от центра глаза до края радужной оболочки должно быть одинаковым для обоих глаз. Кроме того, ожидается, что оба лимба будут иметь правильный округлый контур. Обнаруженные артефакты проиллюстрированы на картинках ниже.

Фото: ieeexplore.ieee.org

Face2Face. Для данного метода будут показательны границы лица и кончик носа. Неточное наложение маски приводит к артефактам затемнения, когда, например, одна сторона носа может казаться темнее другой. При этом контуры маски резко отделяются: это хорошо видно внизу лица и над бровями. Элементы, которые частично закрывают части лица (например, пряди волос), моделируются неправильно и могут привести к образованию «дыр».

дипфейк
Фото: ieeexplore.ieee.org

DeepFake. Для дипфейков наиболее уязвимыми считаются глаза и зубы. Многие образцы имеют неубедительные зеркальные отражения — блики в глазах либо отсутствуют, либо кажутся упрощенными. Этот артефакт делает глаза тусклыми. Другой минус — непрорисованные зубы. Бывает, они вообще не моделируются, а выглядят как отдельное белое пятно.

дипфейк
Фото: ieeexplore.ieee.org

Во втором поколении многие артефакты были сглажены, и теперь они различимы преимущественно машиной. Недочеты устраняются стремительно. Когда в 2018 году разработчики обнаружили, что дипфейковые персонажи странно моргают — делают это редко или не закрывают глаза вообще, то следующие усовершенствованные модели тут же включили моргание в систему.

Недавние опыты показали, что детекторы дипфейков не всегда справляются с вычислением подделок. Если дипфейки первого поколения выявляются с вероятностью 100%, то в случае второго поколения диапазон ошибки составляет от 15 до 30%. Исследователи называют такой результат плохим. Добавим, что главной подсказкой для обнаружения имитаций по-прежнему являются глаза. Хуже всего детектор реагирует на область лица, где нет органов чувств (лоб, щеки, подбородок).

Кстати, последний инновационный метод обнаружения дипфейков на удивление прост: эксперты сравнивают свет, отраженный в роговицах. На фотографии реального человека, сделанной камерой, отражение в двух глазах будет одинаковым, потому что они видят одно и то же. Изображения, сгенерированные GAN, обычно не могут точно передать это сходство. Эффективность такого анализа составила 94%. Правда, возможно, и этот артефакт будет преодолен следующими моделями.

Противостоять обману

Реалистичные подделки (наподобие ролика с Томом Крузом) заставляют задуматься о мощном алгоритме, который сумел бы быстро и качественно выявить манипуляцию. Периодически крупные IT-компании объявляют конкурс на создание лучшего дипфейк-детектора. В прошлом году Facebook и Microsoft подвели итоги такого соревнования — первое место занял программист из Минска Селим Сефербеков, он получил $500 тыс.

Занимаются вопросом выявления дипфейков и государственные органы разных стран. Так, в феврале 2021 года конкурс на создание эффективного детектора объявило МВД России. Начальная сумма контракта — 4,8 млн рублей.

Другой метод борьбы с дипфейком — запрет. Размещение роликов-имитаций ограничено крупнейшими сайтами, включая Reddit, Twitter и Facebook.

МВД
Фото: ИЗВЕСТИЯ/Зураб Джавахадзе

В США уже действует ряд правовых норм, которые регулируют использование дипфейков. В частности, с 2020 года закон запрещает использовать дипфейки для вмешательства в выборы. Политики — легкая добыча для создания имитаций: обычно они стоят четко перед камерой, а их лица хорошо и равномерно освещены. Также законодательство запрещает вставлять изображение реального человека в видео сексуального характера без согласия оригинала. Ограничения и меры наказания разнятся от штата к штату.

В Китае также принят закон, который запрещает публикацию дипфейков без специальной пометки. Он вступил в силу с 1 января 2020 года.

Дипфейк в России

В нашей стране вопросы создания и публикации дипфейков пока не урегулированы законодательно. Впрочем, по мнению экспертов, в российском праве уже есть нормы, применимые в ситуациях связанных с дипфейками. Это ст. 159 УК («Мошенничество») и ст. 152 ГК («Защита чести, достоинства и деловой репутации»). Кроме того, относится к теме и закон о защите персональных данных.

Прежде чем что-то внедрять, нужно дождаться правоприменительной практики. Хотя бы первых серьезных историй, подтверждающих мошенничество, — отметил эксперт по информационной безопасности Алексей Лукацкий. — Тем более действующая ст. 159 Уголовного кодекса уже покрывает эту ситуацию. Так что новых требований, запрещающих дипфейки, вводить не надо.

закон
Фото: ИЗВЕСТИЯ/Артем Коротаев

Никита Куликов, член экспертного совета по цифровой экономике при Госдуме РФ и учредитель АНО «ПравоРоботов», считает, что бороться с проблемой лучше на опережение:

— Я думаю, мы всё равно придем к дипфейковым ограничениям. Однако предупреждать мошенничество нужно не только законом, но и повышением информационной грамотности — объяснять людям (особенно пожилым), что не всему следует верить, что данные нужно проверять.

Компании из сферы информационной безопасности прогнозируют, что со временем число мошенничеств с применением искусственного интеллекта будет расти. Уже есть и тревожные прецеденты. Так, мошенники сгенерировали голос директора британской энергетической компании и в телефонном разговоре попросили управляющего дочерней фирмы перевести $240 тыс. Сотрудник исполнил приказ «босса». Позже управляющий рассказал, что аферисты повторили даже легкий немецкий акцент его начальника.

дипфейк
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

Алексей Лукацкий заметил, что говорить о крупных инцидентах в России пока не приходится. Однако с распространением биометрии ситуация может измениться к худшему:

— По мере развития единой биометрической системы интерес злоумышленников также возрастет. Это вдвойне очевидно на фоне новостей о том, что правительство хочет за два года собрать биометрию с 70 млн граждан. На фоне новостей, что крупные торговые сети хотят ввести оплату по лицу. Остается ждать, что число мошеннических операций увеличится в разы.

Читайте также