Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Трамп заявил об отсутствии угрозы третьей мировой войны из-за конфликта на Украине
Мир
Посол РФ в Ирландии призвал не ждать возобновления сотрудничества в вопросах авиации с ЕС
Мир
В посольстве США заявили об отсутствии договоренностей о новом раунде консультаций с РФ
Армия
Расчет РСЗО БМ-21 «Град» уничтожил вражеский миномет в зоне СВО
Мир
Трамп попросил посла США в Индии поработать над ростом экспорта энергоносителей США
Мир
Узбекистан вошел в топ-10 стран — покупателей российских продуктов питания
Общество
Экс-замминистра и депутата заметили среди гостей подпольной вечеринки
Политика
В Госдуме отреагировали на разгоревшийся в Японии скандал из-за Курил
Мир
Науседа выдвинул Робертаса Каунаса на пост министра обороны Литвы
Мир
Фракция Порошенко объявила о начале процедуры отставки кабмина Украины
Мир
SANA сообщило о встрече глав США и Сирии для укрепления отношений между странами
Мир
На Украине сообщили о повреждении Трипольской и Змиевской ТЭС
Мир
Саркози заявил о подготовке к апелляции после выхода из тюрьмы
Мир
В Ливане освободили сына экс-президента Каддафи Ганнибала после 10 лет тюрьмы
Мир
Экс-бойца UFC Кастро нашли мертвым в американской тюрьме в возрасте 38 лет
Спорт
ХК «Торпедо» прервал серию из пяти побед ХК «Локомотив»
Стиль
Стилист назвала способы сохранить объем волос под шапкой

Правительство РФ поддержит создание ПО для борьбы с видеофейками

«Коммерсант»: к 2030 году в России появятся системы для распознавания фейков в СМИ и соцсетях
0
Фото: Global Look Press/CHROMORANGE/Andreas Poertner
Озвучить текст
Выделить главное
Вкл
Выкл

Правительство России планирует профинансировать разработку программ по распознаванию сгенерированного контента (deepfake) до 2030 года. Это следует из дорожной карты развития «Национального общесистемного ПО», которая была принята 16 декабря. С документом ознакомился «Коммерсант».

Как отмечается в тексте, на проекты планируется выделить гранты, развитием будет заниматься Фонд содействия инновациям.

Таким образом, к 2030 году в России появится не менее пяти систем для распознавания видеофейков в СМИ и социальных сетях. Планируется, что к 2025 году такие системы должны распознавать не менее 70% фейков.

Как пояснили в Минцифры, для эффективной борьбы с фейками в соцсетях требуется специальное программное обеспечение, которое позволит устанавливать подлинность различных типов аудио- и визуальной информации. Пользователями такой технологии могут стать новостные, медиа- и PR-агентства, которые нуждаются в проверке достоверности информации, а также пользователи, сомневающиеся в подлинности аудио- и визуального контента.

По словам юрисконсульта практики интеллектуальной собственности юридической компании ЭБР Спартака Хулхачиева, желание регуляторов контролировать сферу deepfake-технологий обсуждается уже давно. Так, специалист напомнил о намерении властей Великобритании запретить распространение порнографического контента, созданного с применением дипфейк-технологий.

«Дипфейки могут быть неприятными как для селебрити, так и для обычных людей. Из знаменитостей жертвами создания дипфейк-порнороликов становились Эмма Уотсон, Билли Айлиш, Скарлетт Йоханссон, Элизабет Олсен. Примечательно, но жертвой стала даже персонаж компьютерной игры The Last of Us Элли Уильямс. Последний пример, несмотря на «виртуальное» происхождение, предположительно, может нарушать авторские права на персонажа, что может затрагивать права разработчиков», — рассказал Хулхачиев «Известиям».

Он также отметил, что жертвами мошеннических действий, основанных на deepfake-технологиях, становились и частные лица: например, в разговоре злоумышленники имитировали чужой голос при звонке якобы от банка, применяли поддельную рекламу и другие способы.

По мнению юрисконсульта, эффективность планируемых мер с правовой точки зрения будет зависеть от принципов и алгоритмов работы разрабатываемого ПО для борьбы с deepfake-контентом.

«Если это будет только мониторинг и фиксация, то частному субъекту в любом случае нужно будет защищать свои права самостоятельно (например, требовать компенсации морального вреда за неправомерную обработку персональных данных или использовать иные способы защиты). Также неясно, как частное лицо сможет получить доказательство использования его образа, если захочет обратиться с иском о защите чести и достоинства против создателя deepfake-ролика. Иными словами, будет ли разработчик такого ПО безвозмездно передавать данные частному лицу, неизвестно», — уточнил Хулхачиев.

Дипфейк (Deepfake) — методика синтеза изображения, основанная на искусственном интеллекте (ИИ). Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики.

Читайте также
Прямой эфир