Перейти к основному содержанию
Реклама
Прямой эфир
Политика
Путин поблагодарил Алиева за идеи по развитию сотрудничества в Каспийском регионе
Общество
Власти Калининградской области начали работу над субсидированием транзита
Общество
Источник сообщил об обнаружении потерпевшего крушение в Якутии вертолета Ми-8
Политика
Путин назвал глубоким характер отношений России и Ирана
Экономика
Бастрыкин рассказал о новом виде налоговых преступлений в России
Общество
В СК РФ предложили конфисковывать имущество чиновников за коррупцию
Мир
В Швеции потребовали от премьера пояснить суть обещаний Эрдогану
Мир
Всех обвиняемых по делу о терактах в 2015 году в Париже признали виновными
Экономика
В США заявили о сокращении глобального экспорта полупроводников в РФ на 90%
Мир
Лавров прибыл в Минск с рабочим визитом
Мир
НАТО не стало давать Грузии обещаний о сроках вступления в альянс

Эксперт допустил запуск браузеров с автопроверкой фейков в 2022 году

0
Фото: ТАСС/Yay
Озвучить текст
Выделить главное
вкл
выкл

В 2022 году в тестовом режиме могут запустить функции автопроверки видеозаписей на наличие элементов, сгенерированных с помощью так называемых deepfake-технологий в браузерах, а также проигрывателях социальных сетей. Об этом сообщает ТАСС со ссылкой на директора регионального инжинирингового центра SafeNet Национальной технологической инициативы (НТИ) Дениса Кувикова.

«Это вопрос скорейшего времени. Функция такого рода может появиться в тестовом режиме уже в 2022 году, вполне вероятно, что менее чем через полгода мы увидим первые продукты», — отметил собеседник агентства.

Эксперт объяснил, что широкое распространение так называемого deepfake-видео (подмена реального изображения на нереальное) предполагает совершенствование методов их распознавания. Для этого разработчиками сервисов интеллектуального анализа видео приходится постоянно повышать эффективность работы алгоритмов.

На рынке уже существуют такие программы, уточнил Кувиков. При этом он отметил, что без специальных программ определить следы обработки видео практически невозможно.

В мае прошлого года в «Лаборатории Касперского» заявили «Известиям», что массовое использование технологий DeepFake пока не распространено и, если видео в высоком разрешении, понять, что это не реальный человек, всё же можно. В настоящее время, чтобы обнаружить дипфейк, можно, например, вводить дополнительные факторы при идентификации, вплоть до прямого включения по видеосвязи с выполнением определенных действий, уточнил он.

Тогда же разработчик ПО назвал способы защиты от мошенничества при видеоидентификации. Как рассказал генеральный директор группы компаний по разработке программного обеспечения ЦРТ Дмитрий Дырмовский, для выявления разного вида мошеннических атак важно применять antispoofing — защиту от взлома. Также он порекомендовал использовать в банковских услугах, связанных с финансовыми операциями, голосовую и лицевую биометрию, а для усиления защиты можно рекомендовать проверять номер телефона, местонахождение пользователя.

Читайте также
Реклама
Прямой эфир