Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Генеральное консульство Словакии в Петербурге прекратит работу к 2025 году
Экономика
Хуснуллин предложил увеличить лимит по семейной ипотеке
Мир
Трамп поздравил владельцев биткоина с рекордной ценой криптовалюты
Мир
Глава МИД РФ рассказал о взаимодействии Вашингтона и Москвы по «закрытым каналам»
Мир
Лавров назвал испытание «Орешника» сигналом о готовности РФ ответить Западу
Мир
Макрон намерен остаться на посту президента до 2027 года
Экономика
Читатели «Известий» выбрали объекты для обновленной купюры в 1000 рублей
Мир
США передали Польше дополнительные $4 млрд на военные нужды
Мир
Лавров указал на обретение Россией силы после введения санкций Запада
Мир
Нидерланды попросят ЕС приостановить безвизовый режим с Грузией
Экономика
Силуанов заявил об ответном использовании активов Запада на развитие регионов РФ
Общество
Мэра Дегтярска Свердловской области задержали за получение взятки
Общество
Патрушев назвал направления нового нацпроекта «Экологическое благополучие»
Мир
Армия Ирака готова противостоять угрозам с территории Сирии
Общество
РКН отказал в регистрации трети страниц блогеров-десятитысячников
Мир
В МИД Польши заявили о готовности страны исполнить ордер МУС на арест Нетаньяху
Мир
Лавров указал на американский след в ситуации с боевиками в Сирии
Туризм
Туроператоры сообщили о падении спроса на поездки в Грузию из-за протестов
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

В России создана программа для выявления поддельного видеоконтента: разработчики надеются, что она поможет журналистам обнаруживать дипфейки, а обычным пользователям — оперативно проверять подозрительные ролики. Такие видео мошенники порой рассылают от лиц дальних родственников потенциальных жертв, которые якобы просят о помощи. Подробности о том, как злоумышленники используют дипфейки и какие механизмы защиты от них существуют сегодня, — в материале «Известий».

Инструмент против подделок

О разработке программы для выявления поддельного видеоконтента сообщили специалисты Донского государственного технического университета (ДГТУ), расположенного в Ростове-на-Дону. Как рассказал автор программы, аспирант кафедры «Кибербезопасность информационных систем» ДГТУ Александр Джуров, сегодня существует множество нейросетей, позволяющих всего за пару кликов сделать необычную картинку, написать стихотворение или мелодию.

«По такому же принципу с помощью искусственного интеллекта (ИИ) можно легко создать и поддельное видео, — рассказал Джуров. — При этом интеллектуальные системы с каждым днем становятся умнее: продукт их работы всё сложнее отличить от настоящего контента даже с помощью специальных программ».

Фото: ИЗВЕСТИЯ/Анна Селина

Программа, разработанная специалистами ДГТУ, выявляет поддельные видеоролики, созданные с помощью технологии DeepFake алгоритма Generative Adversarial Network (GAN). Этот инструмент может с приемлемой точностью обнаруживать на видеокадрах признаки синтезирования лица человека с помощью нейросетей.

Создатели программы отмечают, что для использования их инструмента, направленного на борьбу с фейками, достаточно скачать подозрительное видео, а затем запустить его проверку через командную строку. В результате вначале выявляются все кадры с лицами в видеоряде, а затем каждый из них анализируется по многочисленным визуальным признакам подделки. В частности, дипфейки выдает натяжение губ при разговоре, расхождение речи и мимики, а также различные технические нюансы, вплоть до неестественно расположенных пикселей.

Риски дипфейков

Как говорит в беседе с «Известиями» руководитель Студии искусственного интеллекта, преподаватель ИИ для бизнеса в Product University и НИУ ВШЭ Дарья Фокина, сегодня злоумышленники могут использовать поддельный видеоконтент в нескольких сценариях. Первый из них — это сообщения от мошенников. Они могут сгенерировать видео якобы с изображением родственников потенциальной жертвы, которые просят о денежном переводе, а потом отправить ей.

— Такое видео выступает будто бы доказательством, что проситель «реальный» и действительно нуждается в помощи, — говорит эксперт. — Однако пока технология создания дипфейков еще находится на раннем этапе своего развития, поэтому сгенерировать реалистичные видео мошенникам пока сложнее, чем голос или фото.

Фото: ИЗВЕСТИЯ/Александр Казаков

Другой вариант использования дипфейков — это создание фальшивого «компромата» ради дальнейшего шантажа жертвы. По словам Дарьи Фокиной, это, в частности, могут быть видео с высказываниями, порочащие честь и репутацию публичного человека. Другой, более распространенный вариант — дипфейк с обнаженными фото и видео потенциальной жертвы.

Впрочем, помимо очевидных рисков мошеннических схем, распространения дезинформации, введения в заблуждение общественности и даже потенциальных политических кризисов, у использования дипфейков есть и другая сторона — снятие ответственности с человека за свои действия.

— Допустим, публичная личность совершила какой-то поступок, выходящий за рамки общественных норм или даже закона: видео распространилось в сети, общество призывает к ответственности, — объясняет Фокина. — Но без технологий распознавания дипфейков, человек может скинуть на них всю ответственность и не признавать свою вину.

При этом, как отмечает разработчик сервисов машинного обучения и Senior Data Scientist в компании Tutu Виталий Куделя, создатели дипфейков постоянно улучшают методы их разработки, чтобы избежать обнаружения. Они, в частности, могут использовать новые алгоритмы или применять техники, которые затрудняют идентификацию фейковых материалов.

Фото: ИЗВЕСТИЯ/Анна Селина

Сложности выявления

По словам Дарьи Фокиной, сегодня выявление дипфейков — это объемная задача, поскольку подделки создаются при помощи современных алгоритмов машинного и глубокого обучения. Эти алгоритмы позволяют делать реалистичные видеозаписи, которые трудно отличить от настоящих без помощи специалистов. Сложность заключается в том, что традиционные методы анализа исходного видео могут быть неэффективными против современных технологий.

— Злоумышленники также могут использовать специальные методы обработки данных, чтобы скрыть следы манипуляций с контентом, — отмечает заместитель руководителя Центра практической информационной безопасности Innostage Ксения Рысаева.

По ее словам, сегодня существует несколько инструментов для борьбы с дипфейками: это алгоритмы машинного обучения, которые могут обнаруживать аномалии в видео, программное обеспечение для анализа цифровой подписи и проверки подлинности видео, а также технологии блокчейн для обеспечения безопасности данных. Однако все эти инструменты нуждаются в постоянном развитии для получения наиболее точных результатов.

Поэтому разработка ученых из ДГТУ — важный и логичный шаг в сфере развития методов выявления дипфейков, считает Дарья Фокина. В обществе уже созрел запрос на проверку контента, созданного при помощи ИИ. Со временем таких инициатив будет всё больше — и, если технологии по распознаванию будут обгонять или хотя бы идти в ногу с технологиями по созданию контента при помощи ИИ, это пойдет на пользу обществу.

Фото: ИЗВЕСТИЯ/Анна Селина

— Разработка ДГТУ отечественного аналога системы обнаружения дипфейков может быть применена в тех областях, где, по соображениям безопасности, сегодня нет возможности использовать иностранные программы, — отмечает Виталий Куделя. — Весьма вероятно, что в будущем такая потребность будет только возрастать.

Цифровые перспективы

Сегодня будущее дипфейков и борьбы с ними зависит от того, как будет развиваться эта технология. Дарья Фокина объясняет: с одной стороны, злоумышленники могут пытаться улучшить свои методы создания фейков, что сделает их более сложными для выявления. С другой — развитие ИИ и алгоритмов для обнаружения подделок также будет продвигаться вперед, что повысит шансы на борьбу с дипфейками.

В свою очередь, Виталий Куделя указывает на то, что технически выявление дипфейков может быть реализовано при помощи внедрения специальных алгоритмов на популярных площадках распространения видео. Такие алгоритмы могут сообщать пользователям, что то или иное видео является подозрительным. Другой путь решения проблемы — это использование криптографии для защиты данных и предотвращения создания дипфейков.

— Например, можно использовать цифровые подписи или хеширование для проверки подлинности изображений или голосовых записей, — говорит собеседник «Известий».

Фото: ИЗВЕСТИЯ/Анна Селина

По словам Дарьи Фокиной, ключевым фактором в эффективной борьбе с угрозой распространения дипфейков в будущем станет сотрудничество между IT-индустрией, академическими институтами и правительствами разных стран мира. К примеру, некоторые страны уже приняли законы, направленные на борьбу с дипфейками.

Они могут включать уголовную ответственность за создание и распространение поддельных видео, а также возможности для жертв дипфейков обжаловать их использование. Наконец, по словам Виталия Кудели, важным инструментом в борьбе с дипфейками является образование пользователей и их информирование о рисках возможной фальсификации данных. Сегодня разные организации уже проводят кампании по просвещению, а также предоставляют рекомендации по проверке подлинности материалов.

— Качество дипфейков будет лишь улучшаться со временем, — заключает эксперт. — Поэтому комбинация различных способов борьбы с ними — от законодательных до алгоритмических и образовательных — может сильно уменьшить их эффективность.

Читайте также
Прямой эфир