Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Стрельба произошла у посольства Израиля в Иордании
Мир
Госдолг США превысил рекордную отметку в $36 трлн
Армия
Бойцы МТО рассказали о работе хлебопекарни в приграничье Курской области
Мир
Самолет Ил-76 МЧС России доставил более 33 т гумпомощи для жителей Мьянмы
Армия
Расчет БПЛА «Орлан-10» обнаружил пехоту ВСУ и скорректировал удар артиллерии
Мир
В МИД России предупредили о жесткой реакции на враждебные шаги Японии
Происшествия
В Приморье мужчина напал на полицейских с ножом
Армия
Группировка войск «Запад» взяла в плен одного украинского боевика
Мир
WP сообщила о ссорах и рукоприкладстве в команде Трампа
Мир
Bloomberg указало на желание Байдена укрепить Украину до президентства Трампа
Мир
Экс-главком ВСУ Залужный заявил о неготовности НАТО к конфликту с Россией
Мир
СМИ сообщили о переносе государственных визитов из Букингемского дворца
Мир
СМИ узнали о посещении саммита по зерну в Киеве лишь двумя зарубежными политиками
Мир
Меркель заявила о неизбежности диалога об урегулировании украинского конфликта
Общество
Путин упростил регистрацию прав на машино-места в паркингах
Мир
Договор о всеобъемлющем партнерстве России и Ирана охватит сферу обороны
Общество
Путин поздравил актера и режиссера Эмира Кустурицу с 70-летием
Армия
Минобороны РФ сообщило о подвигах российских военных в зоне спецоперации
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

В Сети набирают популярность сервисы на основе искусственного интеллекта (ИИ), позволяющие раздевать людей, изображенных на фото. Только в минувшем сентябре такими приложениями воспользовались 24 млн человек. По мнению экспертов, подобные сервисы могут помочь злоумышленникам совершать самые разные преступления. Подробности о том, чем опасны «раздевающие» приложения и как защититься от их угроз, читайте в материале «Известий».

Тренд на раздевание

О том, что «раздевающими» сервисами на основе ИИ пользуются миллионы человек, сообщило агентство Bloomberg со ссылкой на исследование аналитической компании Graphika. По данным экспертов, пользователи берут фото из соцсетей без согласия их владельцев, а созданные при помощи ИИ дипфейки получаются весьма реалистичными.

При этом, как отмечают специалисты Graphika, некоторые из подобных сервисов специализируются исключительно на «раздевании» женских снимков. Причем они не просто находятся в открытом доступе, но и активно продвигаются на самых разных площадках. Так, число ссылок на подобные сервисы, опубликованных в соцсети X (бывший Twitter) и на Reddit, с начала 2023 года выросло на 2400%.

хакер
Фото: ИЗВЕСТИЯ/Анна Селина

Представители X не смогли оперативно предоставить Bloomberg комментарии насчет рекламы сервисов, «раздевающих» женщин. В то же время в Reddit отметили, что их платформа запрещает «любой обмен фальшивыми материалами откровенно сексуального характера без согласия», и пообещали в будущем блокировать подобную рекламу.

По воле инстинктов

«Раздевающие» людей сервисы популярны, поскольку человеческая природа остается неизменной, считает руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. По словам эксперта, согласно самым скромным подсчетам 30% всего мирового интернет-трафика приходится на порнографию. А новым трендом в этой сфере стало создание дипфейков.

Само понятие «дипфейк» появилось несколько лет назад. Это слово образовано путем объединения двух смыслов, Deep Learning — глубокое обучение, и Fake — подделка. Основатель и СЕО Mirey Robotics, эксперт по искусственному интеллекту Андрей Наташкин отмечает, что технология, позволяющая «раздевать» людей на фотографиях, стала очередным негативным проявлением машинного обучения из категории deepfake.

— Я не уверен, что большая часть пользователей «раздевающих» сервисов — это именно злоумышленники, — говорит в беседе с «Известиями» Сергей Полунин. — Простого человеческого интереса тут существенно больше.

Фото: ИЗВЕСТИЯ/Анна Селина

Тем не менее само наличие в открытом доступе провокационных фотографий обычно является проблемой для человека. Исключением, по словам Полунина, может стать лишь ситуация, когда человек зарабатывает эротическими фотографиями на жизнь или же, когда они являются частью созданного им образа. При этом сегодня дипфейки, сгенерированные на основе реальных снимков, пока далеки от совершенства.

Однако, как прогнозирует Полунин, с учетом естественного интереса к теме подделок повышение их реалистичности — это вопрос ближайшего времени. Создание эротических фильмов или изображений с нужными персонажами «под ключ» с большой долей вероятности станет востребованной услугой.

— Интересный момент заключается еще и в том, что жертвы, как правило, не знают о создании «раздетых» дипфейков с ними: чаще всего пользователи их делают для своих личных целей, — отмечает эксперт. — Но, если речь идет о настоящих злоумышленниках, ситуация может стать совсем иной.

Инструмент для мошенников

Как говорит Андрей Наташкин, сегодня мошенничество с помощью решений на основе ИИ переживает настоящий бум: нейросети уже умеют подделывать паспорта, водительские удостоверения и банковские выписки. Технологии на основе машинного обучения могут легко копировать человеческие голоса, а нейросети при анализе текстовых постов в социальных сетях умеют подделывать манеру общения пользователей.

Создание «раздетых» дипфейков стало очередным опасным инструментом в руках мошенников. Такие изображения могут использоваться злоумышленниками для целенаправленного преследования, секс-вымогательства и создания изображений обнаженной натуры без согласия тех, кому эта натура принадлежит, комментирует эксперт в сфере ИИ, старший менеджер по продукции компании Phillips Анастасия Московченко.

девушка с телефоном
Фото: Getty Images/Thai Liang Lim

При этом простота создания таких изображений и сложность обнаружения делают их мощным инструментом для киберзапугивания и других форм цифрового насилия. При этом ситуация усугубляется, если речь идет о публичном человеке — в этом случае возникают серьезные риски для репутации.

— Несколько лет назад в США был очень резонансный случай, — рассказывает Андрей Наташкин. — В Сети появилось видео с Нэнси Пелоси, одним из спикеров палаты представителей американского конгресса. Пелоси очень плохо выговаривала слова и путалась в мыслях.

По словам эксперта, создавалось полное впечатление, что политик просто пьяна, и скандальное видео едва не стоило Пелоси политической карьеры. Ей понадобилось достаточно большое количество времени, чтобы доказать, что это дипфейк. Собеседник отмечает: основная проблема — в том, что фактически жертва не имеет законных оснований для своей защиты, поскольку правовое поле сегодня не готово к подобным ситуациям.

Сергей Полунин считает, что популярные соцсети и просто популярные сайты наверняка будут стараться блокировать подобный контент и выявлять пользователей, которые его публикуют. Однако, как показывает опыт прошлых лет, ситуацию это вряд ли изменит: прогресс, даже в столь странных формах, остановить не получится.

ии
Фото: Getty Images/Tero Vesalainen

Механизмы защиты

По словам Анастасии Московченко, сегодня TikTok и корпорация Meta (признана в РФ экстремистской и запрещена) начали блокировать ключевое слово undress («раздевать»). Однако, несмотря на то что такие технологические решения, как модерация контента и блокировка ключевых слов на социальных платформах, уже внедряются, их эффективность еще предстоит оценить.

У российского законодательства пока нет конкретной позиции по этому вопросу, — говорит собеседница «Известий». — Тем не менее глобальная тенденция указывает на необходимость создания правовой базы для борьбы с подобными вторжениями в частную жизнь, вызванными технологиями.

По словам Московченко, несанкционированное использование образа человека для создания дипфейков может привести к психологическим травмам, подрыву репутации и нанесению ущерба как личным, так и профессиональным отношениям. В свою очередь Сергей Полунин отмечает: если качество дипфейка низкое, а у человека есть позитивный цифровой след и хорошая репутация, то скандалов и проблем можно будет избежать.

— В то же время у такой формы цифрового насилия могут быть далеко идущие последствия, приводящие к долгосрочным проблемам с психическим здоровьем, — подчеркивает Анастасия Московченко.

ноутбук
Фото: Global Look Press/Karl-Josef Hildenbrand

При этом сегодня нет эффективных инструментов для защиты от подобных инцидентов: как объясняет Сергей Полунин, конечно, можно подать иск о защите чести, достоинства и деловой репутации, но в киберпространстве довольно непросто будет установить, кто создал то или иное изображение. В то же время, по словам Анастасии Московченко, для жертв дипфейков важными шагами могут стать обращение за поддержкой к специалистам по психическому здоровью, а также юридическая консультация.

Читайте также
Прямой эфир