Перейти к основному содержанию
Реклама
Прямой эфир
Армия
В Херсонской области 17 морпехов ВСУ добровольно сдались в плен
Спорт
Валуев назвал Олимпийские игры в Париже частным шоу для зарабатывания денег
Мир
Лавров объяснил отказ западных коллег сделать общее фото после встречи в Лаосе
Армия
ВС России освободили населенный пункт Лозоватское в ДНР
Мир
Лавров заявил об осознании Западом невозможности победить Россию
Мир
Захарова заявила о масштабном провале открытия Олимпиады в Париже
Общество
Фигурант дела экс-замглавы МО Булгакова владел компанией по разведению свиней
Общество
Суд заявил об опасениях побега подрывника ж/д под Рязанью за границу
Происшествия
Стало известно о еще двух жертвах отравителя из Балашихи
Общество
Росавиация ввела ограничения на работу аэропортов Казани и Нижнекамска
Мир
Лавров заявил о планах обсудить с главой МИД Южной Кореи маневры США в регионе
Мир
Французский епископат осудил церемонию открытия Олимпиады-2024 в Париже
Мир
Российские военные вынесли на руках раненого солдата ВСУ из Торецка в ДНР
Армия
ПВО РФ уничтожила три беспилотника ВСУ под Белгородом, Рязанью и Саратовом
Происшествия
Волонтеры попали под атаку ВСУ в ходе раздачи гумпомощи в Харьковской области
Интернет и технологии
В Telegram выявлена новая мошенническая схема кражи аккаунтов
Экономика
Эксперты рассказали об актуальных инвестиционных инструментах
Происшествия
Губернатор Брянской области сообщил о 22 сбитых беспилотниках ВСУ над регионом
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
вкл
выкл

Пользователи русскоязычных и международных форумов в даркнете предлагают создать дипфейк-видео с любым человеком за $20 тыс. (более 1,5 млн рублей по текущему курсу). Эксперты считают, что подобные ролики злоумышленники могут использовать для преследования и шантажа своих жертв. Почему дипфейк-видео стали оружием в руках преступников и как защититься от подобных угроз — в материале «Известий».

Услуга из даркнета

О том, что на форумах в даркнете стали предлагать услуги по созданию дипфейк-видео с любым человеком, сообщили эксперты «Лаборатории Касперского».

«Чаще всего предлагают услуги по созданию дипфейков для криптофрода. Речь идет о так называемых криптостримах или фальшивых розыгрышах криптовалют. Это популярная скам-схема, в рамках которой злоумышленники побуждают зрителей переводить им криптовалюту», — рассказали специалисты.

хакер
Фото: Global Look Press/dpa/Annette Riedl

По данным «Лаборатории Касперского», мошенники используют фальшивые видео со знаменитостями или соединяют старые записи, чтобы запустить прямые трансляции на платформах соцсетей и заманить потенциальных жертв. Также в даркнете предлагают услуги по созданию порнографических дипфейк-видео, а некоторые пользователи даже разрабатывают инструкции по генерации таких роликов. Эксперты считают, что подобные дипфейки позже могут использоваться в том числе для преследования и шантажа.

Как поясняет главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников, дипфейк-видео — это ролики, на кадрах которых лица, голоса или тела действующих персон искусственно меняются на лица, голоса и тела других людей. Название (deepfake) образовано от сочетания английских терминов deep learning («глубинное обучение») и fake («подделка»).

Механизмы замены

При создании дипфейков системы искусственного интеллекта (ИИ) считывают множество точек человеческого лица и создают «цифровой слепок», который впоследствии соединяют с первоначальным видеоматериалом. Как отмечает адвокат Московской коллегии адвокатов «Бородин и партнеры» Владислав Шурховецкий, порой отличить такое видео от настоящего невооруженным глазом невозможно, поскольку программы для создания дипфейков могут воспроизводить не только внешний вид человека, но и его голос.

— Сегодня в Сети можно найти много видео, где актеры в популярных фильмах были заменены на других людей, — рассказывает Дмитрий Овчинников. — Эта технология была доступна и раньше: она не раз применялась в кино. Но это был «штучный товар», вся работа выполнялась вручную. Теперь же при помощи нейросетей такую замену может выполнить обычный компьютер.

Неудивительно, что злоумышленники довольно быстро обратили внимание на эту технологию. Владислав Шурховецкий отмечает, что жертвой схемы с дипфейками может стать любой человек, чье фото или видео загружено в Сеть. При этом качество сгенерированного дипфейк-видео напрямую зависит от качества и количества фотографий, на основании которого оно создается. Но как именно будут использованы такие ролики, зависит только от фантазии преступников.

лицо
Фото: ТАСС/Артем Геодакян

— Дипфейк-видео могут использовать для распространения ложной информации, шантажа, скандалов (в том числе политических), мошенничества и так далее, — говорит в беседе с «Известиями» эксперт в сфере кибербезопасности компании «Вебмониторэкс» Екатерина Старостина. — Кроме того, подобные ролики могут пытаться использовать в качестве ложных доказательств в суде.

По словам Дмитрия Овчинникова, сегодня один из самых популярных видов обмана при помощи дипфейков — это сообщение якобы от имени руководителя компании бухгалтеру с неожиданным, но важным финансовым поручением по переводу средств на определенный счет. При этом бухгалтером при выполнении такого поручения движет страх — он боится, что в случае отказа его могут наказать, например, лишив премии.

Внимание к деталям

Несмотря на всё совершенство технологий по созданию дипфейков, специалисты отмечают, что подобные ролики выдают детали. В частности, искусственный интеллект пока плохо повторяет мимические морщины, а также положение губ. Если живой человек в своей речи в среднем меняет его столько же раз, сколько издает звуков, то нейросети ограничиваются максимум десятью вариантами.

Кроме того, несмотря на всю достоверность, нейросети на данном этапе развития не могут полностью учитывать моторику и движение мышц реальных людей. Владислав Шурховецкий отмечает, что дипфейки также допускают ошибки при создании 3D-моделей лиц, но лучше всего выявлять эти моменты при помощи специальных программ.

— Для анализа роликов на наличие аномалий и несоответствий можно использовать целый ряд программ и сервисов, — уточняет Екатерина Старостина. — Среди них — Deeptrace, Sensity, Amber Video, Truepic и другие. Кроме того, можно обратиться к экспертам, которые смогут профессионально определить, является ли то или иное видео подделкой.

лицо
Фото: Getty Images/picture alliance

По словам Дмитрия Овчинникова, при создании дипфейков преступники обычно «сыпятся» на мелких и незначительных деталях, которые просто не могут смоделировать. Поэтому очень важно при анализе подобных роликов обращать внимание на время и место съемок. Но и сами файлы дипфейк-видео порой содержат много скрытой информации (метаданных), которая при должном анализе может моментально опровергнуть достоверность самого ролика.

— В ходе экспертизы специалисты детально изучают метаданные видеофайла, при помощи которых могут быть установлены даже личности тех, кто создал этот ролик, — рассказывает Владислав Шурховецкий. — Но наравне с тем, как технологии создания дипфейков становятся совершеннее, злоумышленники учатся всё лучше и лучше заметать свои следы.

Механизмы защиты

Создание дипфейк-видео сегодня является одной из самых передовых технологий в арсенале киберпреступников. Однако, по словам Екатерины Старостиной, существует несколько способов защититься от подобной угрозы. В частности, нужно применять двухфакторную аутентификацию в максимальном количестве сервисов и приложений, а также тщательно проверять источники получения видео.

— Если же злоумышленники пытаются использовать дипфейки против вас, прежде всего постарайтесь собрать все доказательства того, что на видео изображены не вы, — говорит собеседница «Известий». — Это могут быть фотографии, другие видео, различные документы и показания свидетелей, которые при необходимости помогут доказать невиновность.

Если дипфейк-видео было опубликовано на каких-либо крупных сервисах или видеохостингах, Екатерина Старостина советует обратиться в их службу поддержки и рассказать о произошедшем. Администрация ресурсов может не только удалить ролики, но и заблокировать аккаунты пользователей, с которых они были опубликованы.

кодекс
Фото: ИЗВЕСТИЯ/Александр Казаков

При этом если дипфейк-видео было создано ради клеветы или нанесения вреда репутации, потерпевшая сторона вправе обратиться в полицию с соответствующим заявлением. В УК РФ есть отдельная статья 128.1 («Клевета»), максимальное наказание по которой составляет до пяти лет лишения свободы. А грамотно выстроить общение с правоохранительными органами поможет профессиональный юрист.

— Специалист окажет помощь при составлении иска о защите чести и достоинства, а также будет представлять ваши интересы в суде, — отмечает Екатерина Старостина.

При этом эксперт отмечает: несмотря на всю сложность ситуации, при использовании дипфейков не нужно поддаваться на провокации, а также пытаться доказывать свою невиновность на публичных форумах и в соцсетях. Это может лишь усугубить ситуацию, а также обернуться еще большим распространением фальшивых видео. В таких случаях Екатерина Старостина советует обращаться к профессионалам и действовать строго в рамках закона.

Прямой эфир