Перейти к основному содержанию
Реклама
Прямой эфир
Происшествия
Пожар в торговом центре в Ангарске локализован на площади 3 тыс. кв. м
Общество
Экс-губернатор Кировской области сменил свыше 100 сокамерников в СИЗО
Мир
Фон дер Ляйен заявила о риске ухудшения отношений ЕС и США из-за пошлин
Спорт
«Манчестер Юнайтед» обыграл «Манчестер Сити» со счетом 2:0 в матче АПЛ
Мир
Макрон пообещал США ответ Европы на «недопустимые» пошлины США из-за Гренландии
Мир
Офис Нетаньяху раскритиковал объявление состава комитета по Газе
Армия
Расчеты минометов «Тюльпан» уничтожили заглубленный штаб ВСУ под Купянском
Мир
В Норвегии раскритиковали ЕС за неконструктивный подход к переговорам с РФ
Мир
Tagesspiegel узнала о недовольстве Мерца частыми больничными немцев
Общество
Экс-футболист «Локомотива» Артур Шамрин найден мертвым в Липецке
Спорт
ХК «Торпедо» обыграл «Спартак» со счетом 0:1 в матче КХЛ
Общество
Юрист предупредил о последствиях дачи ложных показаний в суде продавцами квартир
Общество
В Херсонской области 450 населенных пунктов остались без света после обстрела
Общество
СК показал кадры последствий взрыва газа в придорожном кафе на Ставрополье
Мир
Власти Польши заявили о появлении «десятков объектов» в небе над страной
Общество
Правительство России утвердило время приезда скорой помощи за 20 минут
Мир
В Швейцарии допустили негативные последствия для ЕС в случае вступления Украины
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

В интернете стремительно выросло количество доступных программ по созданию дипфейков. Сегодня их более 50 тыс., хотя еще два года назад таких решений практически не было. Ранее «Известия» сообщали, что до конца года, по оценкам экспертов, с мошенничеством при помощи подобных технологий может столкнуться каждый второй. Редакция провела эксперимент по созданию дипфейка — как выяснилось, для этого не нужно обладать особыми навыками. По словам экспертов, бесконтрольное распространение таких технологических решений в разы увеличивает число мошенничеств и информационных атак на пользователей. Подробнее — в материале «Известий».

Сложно ли создать дипфейк

Технологии создания дипфейков еще два года назад были доступны лишь для узкого круга специалистов с высоким уровнем подготовки и дорогостоящим ПО. Сейчас ситуация кардинально изменилась: в открытом доступе появилось более 50 тыс. бесплатных инструментов для генерации дипфейков — от мобильных программ до сложных платформ с искусственным интеллектом, рассказали «Известиям» в пресс-службе MWS AI (входит в МТС Web Services, ранее MTS AI).

Дипфейк
Фото: ИЗВЕСТИЯ/Анна Селина

«Известия» провели свой эксперимент по созданию дипфейка и убедились, что для этого требуется минимум усилий и опыта. Для цифрового аватара понадобилось всего лишь две фотографии — корреспондента и его знакомого.

Дальнейшие шаги были просты: фото загрузили в один из популярных онлайн-сервисов, предлагающих функцию замены лица, а в качестве шаблона выбрали заранее подготовленное фото с человеком. Программа автоматически подставила лицо журналиста на тело другого человека — без каких-либо ручных настроек или дополнительной обработки. Процесс занял не более 10 минут. Для создания же видеоролика потребуется немного больше усилий и финансовые вложения — необходимо купить подписку, открывающую доступ к улучшенным алгоритмам. В среднем это стоит от $3–6 в месяц.

В одной технологической компании для «Известий» создали видеодипфейк, им для этого потребовалось всего лишь одно фото. Изначально в программу загружается портрет «жертвы» и оживляется с помощью ИИ — этот этап один из самых сложных. Важно воссоздавать мимику, движение глаз, головы и даже изменения выражения лица, чтобы всё выглядело естественно. Для того чтобы изображение «заговорило», необходимо наложить на него аудиодорожку и синхронизировать ее с движением губ, после чего можно будет уже выгрузить полученное видео.

Клавиатура
Фото: ИЗВЕСТИЯ/Сергей Коньков

В ходе эксперимента редакция убедилась, что даже базовые инструменты позволяют легко создавать фальсифицированные фотографии, а с платной подпиской дипфейки становятся практически неотличимыми от реальности.

Есть ли способы защиты от дипфейков

Резкий рост числа доступных инструментов для создания дипфейков — тревожный сигнал. Сегодня любой пользователь с базовыми навыками может сгенерировать реалистичное видео или аудио от лица любого человека — от родственника до представителя власти. Основная угроза заключается не только в фейковых новостях или репутационных атаках, но и в практическом применении этих технологий мошенниками, отметил депутат Госдумы Антон Немкин.

Дипфейки используются для обмана граждан и организаций: поддельные голоса руководителей, видеообращения от «сотрудников банка», «чиновников» или «родственников» становятся частью сложных схем социальной инженерии, — сказал он «Известиям».

Дипфейк
Фото: Getty Images/Tero Vesalainen

По его словам, проблема усугубляется тем, что распознать дипфейк становится всё сложнее — технологии генерации развиваются быстрее, чем средства защиты. Для обывателя разница между настоящим и синтетическим контентом почти незаметна — это создает почву для массовых манипуляций, паники и разрушения доверия к визуальным и аудиодоказательствам в целом.

По данным MWS AI, среди основных видов дипфейков, используемых в мошенничестве, — видеозвонки и кружочки в мессенджерах с подменой лица и голоса для имитации реальных людей, создание фальшивых личностей в соцсетях и приложениях для знакомств с использованием синтезированных фотографий и видео для формирования ложного доверия и обмана пользователей. Также существует проблема порнографических дипфейков, когда создаются поддельные изображения или видео откровенного содержания с целью шантажа, подчеркнули там.

Самостоятельно распознать дипфейк может быть трудно, поскольку злоумышленники часто используют разные приемы, чтобы искусственно «зашумлять» контент, например, отправляют нечеткие, размытые дипфейк-видео в кружочках в мессенджерах, накладывают на предзаписанные фальшивые аудиосообщения посторонний шум от дороги и так далее, рассказал руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин.

Телефон
Фото: ИЗВЕСТИЯ/Сергей Коньков

Как писали «Известия», по словам экспертов по информационной безопасности, каждый второй россиянин столкнется с дипфейк-атакой до конца года. В 2026 году специалисты прогнозируют уже рост дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого.

— На рынке есть специальные решения для распознавания дипфейков, но 100% гарантии, как и любая технология, они не дают, — сказал эксперт.

В распознавании всех видов подделок очень эффективны детекторы дипфейков, отметил руководитель исследовательских проектов VisionLabs Александр Паркин. Их внедрение в социальные сети и мессенджеры, а также повышение цифровой грамотности пользователей могло бы помочь людям избежать угрозы шантажа и вымогательства денег, добавил он.

Антон Немкин считает, что решение проблемы с таким обманом должно быть системным: необходимы технологии детекции, правовое регулирование, верификация цифрового контента, а также просвещение граждан.

Телефон
Фото: ИЗВЕСТИЯ/Сергей Коньков

Пользователями важно соблюдать основные рекомендации цифровой безопасности: перепроверять, действительно ли человек тот, за кого себя выдает, критически относиться к любым сообщениям в Сети и использовать надежные защитные решения, которые не дадут перейти на фишинговую или скам-страницу, уведомят о звонке от потенциального мошенника и не дадут установить на устройстве вредоносную программу, добавил Дмитрий Аникин.

Читайте также
Прямой эфир