В Сети набирают популярность сервисы на основе искусственного интеллекта (ИИ), позволяющие раздевать людей, изображенных на фото. Только в минувшем сентябре такими приложениями воспользовались 24 млн человек. По мнению экспертов, подобные сервисы могут помочь злоумышленникам совершать самые разные преступления. Подробности о том, чем опасны «раздевающие» приложения и как защититься от их угроз, читайте в материале «Известий».
Тренд на раздевание
О том, что «раздевающими» сервисами на основе ИИ пользуются миллионы человек, сообщило агентство Bloomberg со ссылкой на исследование аналитической компании Graphika. По данным экспертов, пользователи берут фото из соцсетей без согласия их владельцев, а созданные при помощи ИИ дипфейки получаются весьма реалистичными.
При этом, как отмечают специалисты Graphika, некоторые из подобных сервисов специализируются исключительно на «раздевании» женских снимков. Причем они не просто находятся в открытом доступе, но и активно продвигаются на самых разных площадках. Так, число ссылок на подобные сервисы, опубликованных в соцсети X (бывший Twitter) и на Reddit, с начала 2023 года выросло на 2400%.
Представители X не смогли оперативно предоставить Bloomberg комментарии насчет рекламы сервисов, «раздевающих» женщин. В то же время в Reddit отметили, что их платформа запрещает «любой обмен фальшивыми материалами откровенно сексуального характера без согласия», и пообещали в будущем блокировать подобную рекламу.
По воле инстинктов
«Раздевающие» людей сервисы популярны, поскольку человеческая природа остается неизменной, считает руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. По словам эксперта, согласно самым скромным подсчетам 30% всего мирового интернет-трафика приходится на порнографию. А новым трендом в этой сфере стало создание дипфейков.
Само понятие «дипфейк» появилось несколько лет назад. Это слово образовано путем объединения двух смыслов, Deep Learning — глубокое обучение, и Fake — подделка. Основатель и СЕО Mirey Robotics, эксперт по искусственному интеллекту Андрей Наташкин отмечает, что технология, позволяющая «раздевать» людей на фотографиях, стала очередным негативным проявлением машинного обучения из категории deepfake.
— Я не уверен, что большая часть пользователей «раздевающих» сервисов — это именно злоумышленники, — говорит в беседе с «Известиями» Сергей Полунин. — Простого человеческого интереса тут существенно больше.
Тем не менее само наличие в открытом доступе провокационных фотографий обычно является проблемой для человека. Исключением, по словам Полунина, может стать лишь ситуация, когда человек зарабатывает эротическими фотографиями на жизнь или же, когда они являются частью созданного им образа. При этом сегодня дипфейки, сгенерированные на основе реальных снимков, пока далеки от совершенства.
Однако, как прогнозирует Полунин, с учетом естественного интереса к теме подделок повышение их реалистичности — это вопрос ближайшего времени. Создание эротических фильмов или изображений с нужными персонажами «под ключ» с большой долей вероятности станет востребованной услугой.
— Интересный момент заключается еще и в том, что жертвы, как правило, не знают о создании «раздетых» дипфейков с ними: чаще всего пользователи их делают для своих личных целей, — отмечает эксперт. — Но, если речь идет о настоящих злоумышленниках, ситуация может стать совсем иной.
Инструмент для мошенников
Как говорит Андрей Наташкин, сегодня мошенничество с помощью решений на основе ИИ переживает настоящий бум: нейросети уже умеют подделывать паспорта, водительские удостоверения и банковские выписки. Технологии на основе машинного обучения могут легко копировать человеческие голоса, а нейросети при анализе текстовых постов в социальных сетях умеют подделывать манеру общения пользователей.
Создание «раздетых» дипфейков стало очередным опасным инструментом в руках мошенников. Такие изображения могут использоваться злоумышленниками для целенаправленного преследования, секс-вымогательства и создания изображений обнаженной натуры без согласия тех, кому эта натура принадлежит, комментирует эксперт в сфере ИИ, старший менеджер по продукции компании Phillips Анастасия Московченко.
При этом простота создания таких изображений и сложность обнаружения делают их мощным инструментом для киберзапугивания и других форм цифрового насилия. При этом ситуация усугубляется, если речь идет о публичном человеке — в этом случае возникают серьезные риски для репутации.
— Несколько лет назад в США был очень резонансный случай, — рассказывает Андрей Наташкин. — В Сети появилось видео с Нэнси Пелоси, одним из спикеров палаты представителей американского конгресса. Пелоси очень плохо выговаривала слова и путалась в мыслях.
По словам эксперта, создавалось полное впечатление, что политик просто пьяна, и скандальное видео едва не стоило Пелоси политической карьеры. Ей понадобилось достаточно большое количество времени, чтобы доказать, что это дипфейк. Собеседник отмечает: основная проблема — в том, что фактически жертва не имеет законных оснований для своей защиты, поскольку правовое поле сегодня не готово к подобным ситуациям.
Сергей Полунин считает, что популярные соцсети и просто популярные сайты наверняка будут стараться блокировать подобный контент и выявлять пользователей, которые его публикуют. Однако, как показывает опыт прошлых лет, ситуацию это вряд ли изменит: прогресс, даже в столь странных формах, остановить не получится.
Механизмы защиты
По словам Анастасии Московченко, сегодня TikTok и корпорация Meta (признана в РФ экстремистской и запрещена) начали блокировать ключевое слово undress («раздевать»). Однако, несмотря на то что такие технологические решения, как модерация контента и блокировка ключевых слов на социальных платформах, уже внедряются, их эффективность еще предстоит оценить.
— У российского законодательства пока нет конкретной позиции по этому вопросу, — говорит собеседница «Известий». — Тем не менее глобальная тенденция указывает на необходимость создания правовой базы для борьбы с подобными вторжениями в частную жизнь, вызванными технологиями.
По словам Московченко, несанкционированное использование образа человека для создания дипфейков может привести к психологическим травмам, подрыву репутации и нанесению ущерба как личным, так и профессиональным отношениям. В свою очередь Сергей Полунин отмечает: если качество дипфейка низкое, а у человека есть позитивный цифровой след и хорошая репутация, то скандалов и проблем можно будет избежать.
— В то же время у такой формы цифрового насилия могут быть далеко идущие последствия, приводящие к долгосрочным проблемам с психическим здоровьем, — подчеркивает Анастасия Московченко.
При этом сегодня нет эффективных инструментов для защиты от подобных инцидентов: как объясняет Сергей Полунин, конечно, можно подать иск о защите чести, достоинства и деловой репутации, но в киберпространстве довольно непросто будет установить, кто создал то или иное изображение. В то же время, по словам Анастасии Московченко, для жертв дипфейков важными шагами могут стать обращение за поддержкой к специалистам по психическому здоровью, а также юридическая консультация.