Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Лавров предупредил о риске ядерного инцидента в случае новых ударов США по Ирану
Происшествия
В Пермском крае семиклассник ранил ножом сверстника
Авто
Автомобилисты назвали нейросети худшим советчиком по вопросам ремонта
Мир
Названы лидеры среди недружественных стран по числу граждан в вузах РФ
Общество
Эксперт дала советы по избежанию штрафов из-за закона о кириллице
Общество
В России вырос спрос на организацию масленичных гуляний «под ключ»
Мир
Левченко предупредила о риске газового кризиса в Европе
Мир
Политолог указал на путаницу в требованиях Украины на встрече в Женеве
Общество
С 1 сентября абитуриенты педвузов будут сдавать профильный ЕГЭ
Армия
Силы ПВО за ночь уничтожили 113 БПЛА ВСУ над регионами России
Общество
Яшина отметила готовность блока ЗАЭС к долгосрочной эксплуатации
Общество
Одного из подозреваемых в похищении мужчины в Приморье взяли под стражу
Мир
Посол РФ прокомментировал попытки Запада создать аналог «Орешника»
Мир
Израиль опроверг задержание Такера Карлсона в Бен-Гурионе
Общество
Мошенники стали обманывать россиян через поддельные агентства знакомств
Авто
Автоэксперт дал советы по защите аккумулятора от морозов
Мир
Ким Чен Ын лично сел за руль крупнокалиберной РСЗО

Эксперт допустил запуск браузеров с автопроверкой фейков в 2022 году

0
Фото: ТАСС/Yay
Озвучить текст
Выделить главное
Вкл
Выкл

В 2022 году в тестовом режиме могут запустить функции автопроверки видеозаписей на наличие элементов, сгенерированных с помощью так называемых deepfake-технологий в браузерах, а также проигрывателях социальных сетей. Об этом сообщает ТАСС со ссылкой на директора регионального инжинирингового центра SafeNet Национальной технологической инициативы (НТИ) Дениса Кувикова.

«Это вопрос скорейшего времени. Функция такого рода может появиться в тестовом режиме уже в 2022 году, вполне вероятно, что менее чем через полгода мы увидим первые продукты», — отметил собеседник агентства.

Эксперт объяснил, что широкое распространение так называемого deepfake-видео (подмена реального изображения на нереальное) предполагает совершенствование методов их распознавания. Для этого разработчиками сервисов интеллектуального анализа видео приходится постоянно повышать эффективность работы алгоритмов.

На рынке уже существуют такие программы, уточнил Кувиков. При этом он отметил, что без специальных программ определить следы обработки видео практически невозможно.

В мае прошлого года в «Лаборатории Касперского» заявили «Известиям», что массовое использование технологий DeepFake пока не распространено и, если видео в высоком разрешении, понять, что это не реальный человек, всё же можно. В настоящее время, чтобы обнаружить дипфейк, можно, например, вводить дополнительные факторы при идентификации, вплоть до прямого включения по видеосвязи с выполнением определенных действий, уточнил он.

Тогда же разработчик ПО назвал способы защиты от мошенничества при видеоидентификации. Как рассказал генеральный директор группы компаний по разработке программного обеспечения ЦРТ Дмитрий Дырмовский, для выявления разного вида мошеннических атак важно применять antispoofing — защиту от взлома. Также он порекомендовал использовать в банковских услугах, связанных с финансовыми операциями, голосовую и лицевую биометрию, а для усиления защиты можно рекомендовать проверять номер телефона, местонахождение пользователя.

Читайте также
Прямой эфир