Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Bloomberg заявило о возможном отказе Украины и ЕС от перемирия на условиях РФ
Армия
Силы ПВО сбили четыре управляемые авиабомбы JDAM и 141 дрон ВСУ
Общество
С освобожденных территорий Курской области с 12 марта вывезли более 370 человек
Политика
Ушаков назвал призыв к перемирию попыткой дать ВСУ время на перегруппировку
Спорт
Пилот «Макларена» Норрис выиграл стартовый этап сезона «Формулы-1»
Экономика
Цены на жилье могут вырасти на 10–20% из-за расширения семейной ипотеки
Мир
Журналист Карлсон заявил об уважении к Путину за его отношение к России
Мир
Уиткофф отметил сокращение дистанции в переговорах РФ и США по Украине
Мир
Эмир Катара обсудил с Мантуровым в Дохе укрепление двусторонних отношений
Мир
В Иране заявили об отсутствии у США полномочий диктовать Тегерану внешнюю политику
Спорт
«Рейнджерс» обыграли «Коламбус» в матче регулярного чемпионата НХЛ
Армия
Ракета «Ангара-1.2» с военными спутниками стартовала с космодрома Плесецк
Армия
Операторы FPV-дронов поразили технику и боевиков ВСУ на южнодонецком направлении
Политика
В МИД РФ заявили о поиске Макроном оправдания для участия в конфликте на Украине
Происшествия
Водитель трактора погиб при атаке дрона ВСУ в Брянской области
Спорт
Овечкин забил 887-й гол в НХЛ и сократил отставание от Гретцки до семи шайб
Общество
В Совфеде предложили ввести уголовную ответственность за самовыгул собак
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Мошенники могут использовать персональные голосовые приветствия на автоответчиках для создания дипфейков — об этом предупредили эксперты. Эти записи позволяют злоумышленникам при помощи нейросетей имитировать голос потенциальной жертвы и в дальнейшем использовать его при атаках на ее окружение. Подробности о том, как мошенники используют записи автоответчиков для создания дипфейков, чем это опасно и как защититься от таких угроз, читайте в материале «Известий».

Чем голосовые приветствия на автоответчиках интересны мошенникам

Персональное голосовое приветствие на автоответчике — такой же образец голоса, как, например, реальный телефонный разговор или голосовое сообщение из украденного аккаунта, говорит в беседе с «Известиями» ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров. При этом голосовые дипфейки, созданные при помощи искусственного интеллекта (ИИ), злоумышленники используют уже пару лет.

— На сегодняшний день существует множество инструментов для создания поддельных видео и аудиосообщений, которые преступники могут применять даже без особых технических знаний, — рассказывает эксперт.

голосовое сообщение
Фото: Global Look Press/Karl-Josef Hildenbrand

При этом многое зависит о того, какова длина голосового приветствия или записи, дополняет руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов. К примеру, отрывок длительностью в три секунды подойдет для воссоздания тембра голоса при монотонной речи, но для копирования эмоций и характерных черт потребуется более длительный эпизод

— Сегодня, чтобы повторить голос, достаточно короткой записи, но ее качество, скорее всего, будет не слишком убедительным, — соглашается руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин. Однако, если обладатель автоответчика запишет более длительное голосовое приветствие, оно может стать весьма опасным инструментом в руках мошенников.

Как мошенники применяют данные голосовых приветствий

Фиксировать непосредственные случаи использования киберпреступниками голосовых приветствий на автоответчике довольно затруднительно, поскольку специалисты по кибербезопасности чаще всего сталкиваются с уже готовыми фактами имитации голосов, говорит в беседе с «Известиями» эксперт по кибербезопасности Angara Security Никита Новиков.

— Однако вполне вероятно, что автоответчики являются одним из популярных способов, при помощи которых злоумышленники могут получить реальный голос человека для последующей подделки, — рассказывает эксперт.

хакер
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

Автоответчик может воспроизводить фразы, ключевые слова, интонацию и манеру речи человека. А злоумышленник записывает звуковую дорожку и заносит ее в систему ИИ, которая, проанализировав запись, воспроизведет голос с нужным текстом, необходимым для мошенника, объясняет Никита Новиков.

— Автоответчик — это доступный источник информации, ведь для доступа к нему мошенникам не требуются какие-то инструменты взлома, — отмечает GR-директор ИБ-компании «Код Безопасности» Александра Шмигирилова. — Без каких-либо усилий они получают сразу два вида данных: телефонный номер и образец голоса.

мошенники
Фото: ИЗВЕСТИЯ/Александр Казаков

При этом подделанные аудиосообщения используются во многих распространенных схемах, говорит Евгений Егоров. Мошенники отправляют такие сообщения, например, с просьбой одолжить денег родственникам, коллегам жертвы или в групповые чаты, чтобы ввести их в заблуждение и заставить поверить, что просьба исходит от знакомого человека. В схемах с фейковыми знакомствами FakeDate или с сообщениями от руководителя FakeBoss злоумышленники получают еще больше возможностей для обмана жертв, создавая у них иллюзию общения с реальным человеком.

Чем опасны схемы мошенников с голосовыми дипфейками

Голосовые сообщения, которые злоумышленники подделывают с помощью ИИ, становятся всё более качественными — интонации голоса всё естественнее, а в записях всё меньше дефектов, которые выдают фейк, рассказывает Евгений Егоров. Сами алгоритмы дипфейков — это следствие развития алгоритмов ИИ, который сильно упростил жизнь злоумышленникам и снизил порог входа для преступников.

— Высококачественный аудиофейк с разнообразным контентом потребует специалиста высокой квалификации и стоимости, — говорит Максим Бузинов. — Поэтому качественные комплексные подделки с разнообразным контентом относятся к таргетированному фишингу.

голосовое сообщение
Фото: Global Look Press/Karl-Josef Hildenbrand

Алгоритмы ИИ для создания аудифейков собеседник «Известий» сравнивает с технологиями для печати фальшивых купюр высокого качества. Но если для выявления фальшивых денег есть средства быстрой и точной валидации подделок, то в случае с голосовыми фейками таких возможностей пока мало. При этом зачастую голосовые фальсификации при тщательном рассмотрении заметны на слух.

Однако в моменте у неподготовленного человека нет времени и навыков, чтобы проанализировать сообщения от фейкового босса или родственника, отмечает Максим Бузинов. При этом сегодня крупные разработчики программного обеспечения развивают средства борьбы с подделками голоса. Уже существует множество алгоритмов выявления артефактов голоса и обнаружения искусственно сгенерированного контента.

— В большинстве случаев они выявляют отдельные виды артефактов и делают это на хорошем уровне, — рассказывает специалист. — Однако средства для анализа всех случаев подделок с высокой скоростью и качеством работы пока нет.

телефон в руках
Фото: Global Look Press/Karl-Josef Hildenbrand

Ситуацию осложняет то, что обычные люди в коммуникациях используют разнообразные искажения, например, для улучшения голоса. Можно просто спеть на видеосообщении под фонограмму, чем сейчас наполнены соцсети, чтобы технология антифейка дала ложное срабатывание. Эти аспекты усложняют работу качественного определения дипфейков, что идет на руку мошенникам, подчеркивает Максим Бузинов.

Способы защиты

Для того чтобы защититься от схем мошенников, связанных с использованием голосовых приветствий на автоответчиках, лучше не записывать их самостоятельно, а воспользоваться услугами операторов связи, которые имеют собственные инструменты, советует Александра Шмигирилова. С помощью таких инструментов можно оставить сообщение с просьбой перезвонить, при этом они не дают звонящему образец голоса, поскольку за пользователя отвечает робот.

— Чтобы у злоумышленника не было возможности сымитировать голос, рекомендуется либо отказаться от автоответчика в принципе, либо использовать какой-то роботизированный аналог, — соглашается Никита Новиков.

Телефонный звонок
Фото: ИЗВЕСТИЯ/Анна Селина

Чтобы не попасться на уловки мошенников, отправляющих голосовые сообщения с номеров знакомых или звонящих по телефону, эксперт советует всегда проверять информацию отправителя звонком на номер, сохраненный в телефонной книге. Также следует соблюдать правила безопасного общения в мессенджерах и в целом перепроверять всю поступающую информацию.

телефон в руках
Фото: ИЗВЕСТИЯ/Андрей Эрштрем

Полностью обезопасить себя от копирования голоса с помощью нейросетей пока невозможно, и такая защита вряд ли появится в ближайшем будущем, говорит старший инженер по информационной безопасности R-Vision Дмитрий Бурмашов. Однако важным элементом по-прежнему остается умение распознавать мошеннические схемы. Так, если к вам обращается официальное лицо и вы сомневаетесь в его подлинности, уточните, можно ли выполнить требуемые действия через официальный сайт или приложение. Если же действия можно выполнить только по телефону, это повод насторожиться.

— Если вам звонят знакомые с просьбой что-то передать или перевести деньги, перезвоните им самостоятельно и задайте два вопроса: один — который знают только они, и второй — заведомо неправильный для них, но обычный для постороннего человека, — заключает эксперт.

Читайте также
Прямой эфир