Перейти к основному содержанию
Реклама
Прямой эфир
Мир
СМИ узнали об использовании в Польше шпионского ПО для прослушки чиновников
Мир
RP узнала о падении неизвестного объекта на севере Польши
Происшествия
Пожар вспыхнул на территории колонии в Пермском крае на площади 1,5 тыс. кв. м
Общество
В Думе предложили платить пенсию в два прожиточных минимума за стаж от 30 лет
Мир
В Индонезии произошло землетрясение магнитудой 5,5
Мир
В Болгарии заявили о невозможности снести памятник солдату «Алеше» в Пловдиве
Мир
Фрегат «Маршал Шапошников» прибыл в порт Хамад в Катаре
Экономика
ФАС возбудила первое дело за нарушение новых требований к рекламе кредита
Мир
Десять человек погибли во время массового побега заключенных на Гаити
Авто
Продажи новых авто в РФ в январе — феврале выросли на 64%
Мир
Южная Корея и США начали учения Freedom Shield
Мир
Премьер Палестины призвал США возобновить финансирование БАПОР
Мир
В Пентагоне отказались комментировать поражение очередного Abrams под Авдеевкой
Мир
На Украине предупредили о риске трагедии из-за нехватки солдат ВСУ
Армия
Слуцкий выразил уверенность в завершении СВО победой России в этом году
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
вкл
выкл

В России хотят ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. Как выяснили «Известия», такой законопроект будет внесен в Госдуму в весеннюю сессию. Его поддерживают в профильных комитетах по информационной и по экономической политике. В российских банках намерены создать свою систему защиты. По мнению экспертов, вопрос регулирования использования дипфейков просто необходим.

Нуждается в регулировании

Фракция ЛДПР готовит к внесению в Госдуму законопроект, который предполагает введение уголовной ответственности за использование технологии дипфейки в мошеннических целях. Речь идет о поправках в ст. 63 «Обстоятельства, отягчающие наказание», ст. 159 «Мошенничество», ст. 158 «Кража», ст. 163 «Вымогательство», ст. 160 «Присвоение или растрата чужого имущества» УК РФ.

Мы предлагаем добавить к отягчающим обстоятельствам использование технологии дипфейки, то есть подмены лица и голоса на фото, видео или во время виртуального общения в интернете. Это дает право вынести максимальное наказание по видам преступлений, которых оно касается, — пояснил «Известиям» один из авторов законопроекта, зампред фракции ЛДПР Ярослав Нилов.

девушка в капюшоне смартфон
Фото: РИА Новости/Алексей Майшев

Он добавил, что, например, по статье «Мошенничество» виновному будет грозить лишение свободы до пяти лет или штраф, «Кража» — до двух лет, «Вымогательство» — до четырех лет, «Присвоение или растрата чужого имущества» — до двух лет.

— Мы живем в мире, который всё больше погружается в виртуальное пространство. Общаемся в мессенджерах, соцсетях, по видеосвязи, смотрим ролики на видеохостингах, пересылаем друг другу документы, фотографии и видео. Дипфейк позволяет влезть в этот рутинный процесс, и обманом или через страх отобрать деньги, заставить что-то сделать или передать информацию, — пояснил депутат.

В пример он привел ситуацию, когда с украденного аккаунта в мессенджере рассылался ролик, на котором человек с лицом и голосом владельца аккаунта просит деньги в долг. Другой способ — мошенник звонит по телефону и голосом известного публичного человека предлагает сделать пожертвование или что-то купить.

Вариаций может быть очень много, а с развитием технологии будет еще больше. Мы должны сделать упреждающий шаг, — подчеркнул Ярослав Нилов.

маска Гая Фокса компьютер
Фото: РИА Новости/Владимир Трефилов

«Известия» направили запрос в Минцифры с предложением оценить перспективу поддержки законопроекта.

В комитете Госдумы по информационной политике считают, что такой документ заслуживает внимания и поддержки.

— Прогресс не стоит на месте, благодаря ему человечество получает новые инструменты. Дипфейки — потрясающая технология, которая, например, позволяет «оживлять» давно умерших людей, делает разнообразнее развлекательный контент, может помочь в психотерапии. Но, к сожалению, ее осваивают и преступные элементы для того, чтобы обманывать, красть и вымогать деньги у добропорядочных граждан, — отметил зампред комитета Андрей Свинцов.

По его словам, законодатели должны дать ответ, так как сегодня наказания за это преступление не существует.

Применение такой технологии должно усиливать ответственность. Так что законопроект правильный и своевременный, действует на опережение, — пояснил он «Известиям».

молодой человек в кепке смартфон
Фото: ИЗВЕСТИЯ/Михаил Терещенко

Первый зампред комитета по экономической политике Госдумы Николай Арефьев считает, что поддержать такой проект закона можно, но всей проблемы он не решит.

— У нас слишком торопятся с цифровизацией, которая действительно открывает неограниченные возможности, но не очень беспокоятся о защите персональных данных граждан. Россияне сегодня очень плохо защищены от всякого рода мошенников, — отметил депутат.

Подмена существует

«Известия» направили запрос в ЦБ, а также в крупнейшие российские банки.

Мы ежедневно отслеживаем новые способы мошенничества, чтобы эффективно им противодействовать. Клиенты могут быть уверены, что данные, в том числе те, которые хранятся в единой биометрической системе, находятся в безопасности, — сообщили в пресс-службе Уральского банка реконструкции и развития.

В ВТБ считают, что в данный момент нет рисков применения дипфейков для финансового мошенничества путем подмены голоса или изображения человека, поскольку есть технологии, которые проверяют их аутентичность.

биометрия отпечатки
Фото: РИА Новости/Алексей Куденко

В ЦБ на запрос «Известий» не ответили, хотя ранее там увидели угрозу в идентификации банковских клиентов по видео. Об этом регулятор сообщил в отзыве на законопроект Ассоциации банков России. Новыми нормами предлагалось предоставить финансовым организациям возможность удаленно открывать счета гражданам для выдачи ипотечных кредитов.

В Сбербанке планируют создать свою технологию распознавания дипфейков. Об этом СМИ ранее сообщал зампред председателя правления финансовой организации Станислав Кузнецов. Он также поделился информацией о произошедшем инциденте: бухгалтер одного из предприятий получила сообщение от своего директора, чтобы та срочно с ним связалась по видеосвязи. При этом в момент звонка она общалась не с реальным руководителем, а использовалась технология дипфейков. В результате по поручению липового руководителя бухгалтер сделала перевод на $100 тыс.

По словам главы Ассоциации профессиональных пользователей социальных сетей и мессенджеров Владимира Зыкова, такая технология появилась давно, однако сейчас она стала более широко применяться.

Идет в ход всё: звук, видео, изображение. При этом с каждым годом она становится всё доступней. Теперь ее могут использовать обычные люди на своих компьютерах. Это вызывает опасение. Например, в США и Китае уже обсуждают возможности ограничения дипфейков, хотя до сих пор никакого регулирования по использованию этой технологии нет, — пояснил он «Известиям».

девушка в капюшоне ноутбук
Фото: ИЗВЕСТИЯ/Алексей Майшев

По его словам, очевидно, что вопрос регулирования использования дипфейков необходим. Если вам звонят мошенники, которые представляются сотрудниками банка или правоохранительных органов, зная о вас большое количество информации, эта технология позволит сделать этот обман еще более убедительным. Например, использовать для этого голос родственников или их видеоизображение.

Бизнес-консультант по информационной безопасности Positive Technologies Алексей Лукацкий оценил проблему дипфейков неоднозначно.

С одной стороны, она не критична, так как банки массово не используют биометрическую систему. С другой — с помощью этой технологии возможно организовывать различные звонки якобы от близких людей, от имени которых мошенники просят перевести им деньги. В этом случае дипфейки играют опасную роль, особенно если они совмещены с подменой телефонного номера, — пояснил он «Известиям».

При этом эксперт считает, что отдельно ужесточать законодательство по этому поводу не стоит, так как мошенники могут найти и другие способы обмана граждан.

Прямой эфир