Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Самолет вынужденно вернулся в аэропорт Южно-Сахалинска по техническим причинам
Армия
Российские Су-35с и Су-35с нанесли удар по по ВСУ в курском приграничье
Мир
Трамп опубликовал в своей социальной сети карту с присоединенной к США Канадой
Мир
Сейсмологи зафиксировали 515 афтершоков после землетрясения в Тибете
Мир
В Германии обвинили Зеленского в замалчивании потери Курахово
Общество
В Гидрометцентре спрогнозировали дождь и гололедицу в Москве 8 января
Спорт
Дешам покинет должность главного тренера сборной Франции по футболу
Интернет и технологии
Росреестр не подтвердил утечку данных из ЕГРН
Общество
Депутат Чаплин пообещал четыре индексации пенсий в течение двух лет
Армия
Средства ПВО за ночь перехватили 32 украинских БПЛА над регионами России
Мир
Биограф заявил о вероятной угрозе психического состояния Маска для США
Мир
Трамп заявил о понимании чувств выступающей против Украины в НАТО России
Мир
Пушков заявил о нежелании Трампа работать с Киром Стармером
Мир
Лавров выразил соболезнования главе МИД КНР в связи с землетрясением в Тибете
Мир
Первые лица США простились с Джимми Картером в Вашингтоне
Армия
Танкисты поразили замаскированное орудие ВСУ под Часовым Яром
Мир
В Лос-Анджелесе объявлено чрезвычайное положение из-за лесных пожаров
Армия
Расчеты «Гиацинтов» уничтожили замаскированное орудие ВСУ в Курской области
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

В 2024 году число дипфейк-атак, по подсчетам VisionLabs (структура МТС), составило десятки тысяч случаев, а в 2025 году это число может возрасти уже в десятки раз. Причем реальные масштабы атак с использованием дипфейков в России значительно превышают открытые официальные данные. Жертве может позвонить и «близкий родственник», и «руководитель» компании или подразделения. Одна из самых непредсказуемых на сегодня угроз — возможность генерировать дипфейк-звонок в режиме реального времени. Обзор актуальных атак и их особенностей — в материале «Известий».

Масштаб проблемы

ИБ-исследователи в последнее время наблюдают рост использования дипфейков для атак, в том числе на уязвимые группы населения, такие как подростки, женщины и пенсионеры. Отдельной статистики по этим категориям нет — существует лишь общая сводка по мошенничеству с использованием дипфейков, включая атаки на процессы банков или телеком-операторов, социально значимые фейки, атаки на конкретных людей.

— Речь может идти о десятках тысяч случаев, — утверждает представитель VisionLabs Татьяна Дешкина. — На данный момент не существует централизованной системы отслеживания или регистрации всех случаев дипфейк-атак в реальном времени.

создание сфальсифицированного изображения
Фото: ИЗВЕСТИЯ/Анна Селина

Источники «Известий» в Роскомнадзоре эту информацию подтвердили.

Дипфейки могут появляться на различных платформах, включая социальные сети, мессенджеры и видеохостинги, и часто остаются незамеченными или необнаруженными. Многие случаи дипфейков происходят в частных или закрытых сетях, что делает их обнаружение и учет сложными.

Представители уязвимых слоев населения чаще становятся объектами именно атак на личность. Например, был случай, когда пожилого человека обманули дипфейком мэра Москвы, чтобы выманить деньги.

По оценкам VisionLabs, в целом убытки от кибермошенничества в 2024 году прогнозируются до 300 млрд рублей. Ущерб непосредственно от дипфейков велик, но выделить конкретную долю весьма сложно.

деньги
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

При этом, по данным Ideco, общий ущерб от деятельности мошенников, который пришелся на банковские операции, совершавшиеся без согласия клиента, по итогам только последних девяти месяцев 2024 года превышает 15 млрд рублей.

— Стандартным примером дипфейк-атак в бизнес-среде является подмена личности руководителя, — отмечает директор Ideco Дмитрий Хомутов. — Есть пример, когда подделка голоса CEO приводила к краже $243 тыс. со счетов крупной британской энергетической компании.

Из-за активного развития ИИ в последние месяцы появилось множество программ, которые помогут мошенникам подделать и голос, и создать фальшивые видеопортреты, добавляет руководитель отдела системного администрирования IT-компании Simpl Константин Ильиных. Так, в Telegram могут прислать несуществующее сообщение в формате «кружочка» и обмануть пользователей. Лучше перезвонить человеку, прийти обсудить вопрос лично, если руководитель или коллега просят перевести деньги.

Telegram
Фото: Global Look Press/IMAGO/Rüdiger Wölk

По прогнозам VisionLabs, количество атак в 2025 году возрастет в десятки раз.

— Проблема в том, что теперь даже некоторые сложные и качественные алгоритмы дипфейков можно легко найти в открытом доступе, — сетует Татьяна Дешкина. — Также снизился и порог входа для генерации подделок — есть приложения, которые позволяют создавать дипфейки даже людям без минимального опыта программирования.

В VisionLabs предупреждают, что один из самых опасных методов мошенничества — видеозвонки. Они вызывают доверие, поскольку происходят непосредственно здесь и сейчас. Беда в том, что сегодня можно сгенерировать такой дипфейк-звонок в режиме реального времени. При этом низкое качество может быть списано на плохое интернет-соединение или погрешности камеры ноутбука. Такие видеозвонки могут использоваться как при атаке на банк (допустим, дипфейк лица бабушки, злоумышленники оформляют на нее кредит), так и при вымогательстве у пенсионеров.

Телефонный звонок
Фото: ИЗВЕСТИЯ/Михаил Терещенко

Сгенерированный дипфейк-звонок в режиме реального времени подстраивается под разговор, тем самым создавая ощущение действительности диалога. Аферисты применяют различные методы психологического давления, представляясь судебными приставами, госслужащими или сотрудниками банков. Но страшнее всего, когда голос родного человека вынуждает человека или сотрудника компании раскрывать конфиденциальную информацию. Именно такие звонки хакеров наиболее опасны для уязвимых групп населения.

Пожилые люди, дети и сотрудники, не обученные основам безопасного поведения в интернете, больше всех подвержены дипфейк-звонкам. По данным Ideco, общая динамика преступлений в сфере информационно-коммуникационных технологий продолжает расти: за три последних квартала 2024 года их число составило 564 тыс., что почти на 16% больше по сравнению с аналогичным периодом прошлого года.

Основные виды дипфейк-атак

Можно выделить несколько типов дипфейк-угроз.

— Замена лица. Лицо одного человека вставляется вместо другого в видеофайле. Чаще всего этот вид атаки используется в видеозвонках или «кружочках» в мессенджерах.

— Перенос мимики. Например, под движения губ человека из оригинального видео подставляется другой голос.

— Создание несуществующих лиц. Злоумышленники генерируют изображения новых, реалистичных лиц, которые используются для анонимного мошенничества или дезинформации.

создание сфальсифицированного изображения
Фото: ИЗВЕСТИЯ/Анна Селина

Почему дипфейки выглядят реалистичными? При видеозвонках и коротких видео в мессенджерах мошенники заменяют лицо одного человека на другое, создавая правдоподобную подделку личности. Если атака связана с голосом, используется технология, которая копирует манеру речи и звучание, делая ее похожей на оригинал. Такие методы делают дипфейки очень убедительными и сложно отличимыми от реального человека, что повышает риск обмана.

— Серьезной проблемой, особенно на Западе (в России такая практика пока распространена меньше), становится использование дипфейков с порнографическим содержанием или монтажом, — говорит представитель VisionLabs Татьяна Дешкина. — Такие материалы могут применяться для шантажа и преследования женщин.

мошенники
Фото: ИЗВЕСТИЯ/Александр Казаков

К сожалению, сервисы для изменения голоса можно скачать с веб-площадок разработчиков, они практически в свободном доступе и часто не требуют специальных навыков для установки.

Как защититься от видеоимитаций

Для борьбы с мошенниками используют детекторы дипфейков, которые постоянно совершенствуются, что критически важно с учетом регулярного улучшения качества фейков. Такие детекторы могут определять все основные виды видеоатак, включая замену лица, перенос мимики и создание несуществующих лиц.

И если банки и телеком-операторы, как правило, обладают техническими и организационными ресурсами для защиты от дипфейков — например, могут ограничить доступ к критическим операциям через голосовых помощников, то в плане социально значимых фейков ситуация гораздо более тревожная, отмечает эксперт АРПП «Отечественный софт», руководитель службы информационной безопасности «МойОфис» Дмитрий Соколов.

депрессия
Фото: ИЗВЕСТИЯ/Андрей Эрштрем

Особую тревогу вызывают дипфейк-звонки, которые стали новым и крайне опасным инструментом мошенников. Это угроза, которая может подстерегать любого человека, но особенно тех, кто может быть не осведомлен о возможностях технологий. Для них звонок, например, от «близкого человека», который якобы оказался в беде, — это реальная угроза потерять деньги, оформить кредиты на свое имя или даже лишиться жилья.

Опасность таких звонков в их правдоподобности — технологии сегодня позволяют имитировать не только голос, но и интонации, что делает мошенничество почти невозможным для обнаружения.

— Представим гипотетическую атаку, где мошенник использует видеозвонок с заранее сгенерированным видеоаватаром близкого человека, говорящего его голосом, — говорит Соколов. — Для этого применяются как раз технологии дипфейков, которые могут анимировать человека по одной фотографии, а также синтезировать речь на основе образцов голоса.

телефон в руках пенсионера
Фото: Global Look Press/Judith Thomandl

Один из самых простых, но распространенных сценариев — это отправка сгенерированного изображения, где якобы близкий человек находится в полиции или больнице. Увидев такое, неподготовленный человек может легко потерять бдительность и передать мошеннику конфиденциальную информацию. Поэтому, призывают эксперты, следует быть готовыми и к таким жизненным сценариям.

Специалисты указывают, как и в случае с любыми видами мошенничества, в первую очередь необходимо сохранять бдительность и тщательно проверять все необычные обращения. Если возникает хотя бы малейшее сомнение, всегда стоит запросить информацию, которую мог бы знать только тот, кто на самом деле звонит.

Относительно дипфейков, сгенерированных в реальном времени, которые являются наиболее опасными и непредсказуемыми по последствиям, стоит быть особо бдительными, — говорит ведущий юрист Staffcop («Атом безопасность» входит в ГК «СКБ Контур») Ольга Попова. — Услышав голос близкого человека, якобы просящего о помощи, почти любой из нас потеряет способность критически мыслить и может начать немедленно выполнять указания злоумышленников. Такие звонки создают психологическое давление и нервное напряжение, которые могут довести до противоправных действий, эмоционального истощения. Лучший быстрый и простой способ самоконтроля — перезвонить и всё перепроверить.

Читайте также
Прямой эфир