В интернете стремительно выросло количество доступных программ по созданию дипфейков. Сегодня их более 50 тыс., хотя еще два года назад таких решений практически не было. Ранее «Известия» сообщали, что до конца года, по оценкам экспертов, с мошенничеством при помощи подобных технологий может столкнуться каждый второй. Редакция провела эксперимент по созданию дипфейка — как выяснилось, для этого не нужно обладать особыми навыками. По словам экспертов, бесконтрольное распространение таких технологических решений в разы увеличивает число мошенничеств и информационных атак на пользователей. Подробнее — в материале «Известий».
Сложно ли создать дипфейк
Технологии создания дипфейков еще два года назад были доступны лишь для узкого круга специалистов с высоким уровнем подготовки и дорогостоящим ПО. Сейчас ситуация кардинально изменилась: в открытом доступе появилось более 50 тыс. бесплатных инструментов для генерации дипфейков — от мобильных программ до сложных платформ с искусственным интеллектом, рассказали «Известиям» в пресс-службе MWS AI (входит в МТС Web Services, ранее MTS AI).
«Известия» провели свой эксперимент по созданию дипфейка и убедились, что для этого требуется минимум усилий и опыта. Для цифрового аватара понадобилось всего лишь две фотографии — корреспондента и его знакомого.
Дальнейшие шаги были просты: фото загрузили в один из популярных онлайн-сервисов, предлагающих функцию замены лица, а в качестве шаблона выбрали заранее подготовленное фото с человеком. Программа автоматически подставила лицо журналиста на тело другого человека — без каких-либо ручных настроек или дополнительной обработки. Процесс занял не более 10 минут. Для создания же видеоролика потребуется немного больше усилий и финансовые вложения — необходимо купить подписку, открывающую доступ к улучшенным алгоритмам. В среднем это стоит от $3–6 в месяц.
В одной технологической компании для «Известий» создали видеодипфейк, им для этого потребовалось всего лишь одно фото. Изначально в программу загружается портрет «жертвы» и оживляется с помощью ИИ — этот этап один из самых сложных. Важно воссоздавать мимику, движение глаз, головы и даже изменения выражения лица, чтобы всё выглядело естественно. Для того чтобы изображение «заговорило», необходимо наложить на него аудиодорожку и синхронизировать ее с движением губ, после чего можно будет уже выгрузить полученное видео.
В ходе эксперимента редакция убедилась, что даже базовые инструменты позволяют легко создавать фальсифицированные фотографии, а с платной подпиской дипфейки становятся практически неотличимыми от реальности.
Есть ли способы защиты от дипфейков
Резкий рост числа доступных инструментов для создания дипфейков — тревожный сигнал. Сегодня любой пользователь с базовыми навыками может сгенерировать реалистичное видео или аудио от лица любого человека — от родственника до представителя власти. Основная угроза заключается не только в фейковых новостях или репутационных атаках, но и в практическом применении этих технологий мошенниками, отметил депутат Госдумы Антон Немкин.
— Дипфейки используются для обмана граждан и организаций: поддельные голоса руководителей, видеообращения от «сотрудников банка», «чиновников» или «родственников» становятся частью сложных схем социальной инженерии, — сказал он «Известиям».
По его словам, проблема усугубляется тем, что распознать дипфейк становится всё сложнее — технологии генерации развиваются быстрее, чем средства защиты. Для обывателя разница между настоящим и синтетическим контентом почти незаметна — это создает почву для массовых манипуляций, паники и разрушения доверия к визуальным и аудиодоказательствам в целом.
По данным MWS AI, среди основных видов дипфейков, используемых в мошенничестве, — видеозвонки и кружочки в мессенджерах с подменой лица и голоса для имитации реальных людей, создание фальшивых личностей в соцсетях и приложениях для знакомств с использованием синтезированных фотографий и видео для формирования ложного доверия и обмана пользователей. Также существует проблема порнографических дипфейков, когда создаются поддельные изображения или видео откровенного содержания с целью шантажа, подчеркнули там.
Самостоятельно распознать дипфейк может быть трудно, поскольку злоумышленники часто используют разные приемы, чтобы искусственно «зашумлять» контент, например, отправляют нечеткие, размытые дипфейк-видео в кружочках в мессенджерах, накладывают на предзаписанные фальшивые аудиосообщения посторонний шум от дороги и так далее, рассказал руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин.
Как писали «Известия», по словам экспертов по информационной безопасности, каждый второй россиянин столкнется с дипфейк-атакой до конца года. В 2026 году специалисты прогнозируют уже рост дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого.
— На рынке есть специальные решения для распознавания дипфейков, но 100% гарантии, как и любая технология, они не дают, — сказал эксперт.
В распознавании всех видов подделок очень эффективны детекторы дипфейков, отметил руководитель исследовательских проектов VisionLabs Александр Паркин. Их внедрение в социальные сети и мессенджеры, а также повышение цифровой грамотности пользователей могло бы помочь людям избежать угрозы шантажа и вымогательства денег, добавил он.
Антон Немкин считает, что решение проблемы с таким обманом должно быть системным: необходимы технологии детекции, правовое регулирование, верификация цифрового контента, а также просвещение граждан.
Пользователями важно соблюдать основные рекомендации цифровой безопасности: перепроверять, действительно ли человек тот, за кого себя выдает, критически относиться к любым сообщениям в Сети и использовать надежные защитные решения, которые не дадут перейти на фишинговую или скам-страницу, уведомят о звонке от потенциального мошенника и не дадут установить на устройстве вредоносную программу, добавил Дмитрий Аникин.