Контент без тормозов: в даркнете появился криминальный ИИ-сервис
В даркнете появился новый ИИ-сервис, лишенный каких-либо встроенных ограничений, — он быстро привлек внимание специалистов по кибербезопасности. Злоумышленники стали активно использовать бот в мошеннических схемах, при разработке вирусов, распространении экстремистских материалов и создании контента на тему сексуальной эксплуатации детей. Подробности о том, что известно о новом криминальном ИИ-сервисе, связанных с ним угрозах и путях борьбы с ними, читайте в материале «Известий».
Что известно о новом криминальном ИИ-сервисе из даркнета
О том, что в даркнете появился новый ИИ-сервис N (редакция не приводит его название из этических соображений), лишенный каких-либо встроенных ограничений, сообщили специалисты компании Resecurity. Согласно их данным, злоумышленники стали активно использовать бот в мошеннических схемах, при разработке вирусов, распространении экстремистских материалов и создании контента на тему сексуальной эксплуатации детей.
Первые следы N эксперты обнаружили 29 сентября 2025 года. Почти сразу после запуска администратор сервиса стал активно продвигать его на одном из даркнет-форумов. При этом он хвастался нагрузкой — якобы всего за первые сутки новая ИИ-система обработала около 10 тыс. запросов. Специалисты отмечают, что в IV квартале уходящего года интерес злоумышленников к новому инструменту заметно вырос, а наступление сезона зимних праздников лишь ускорило распространение бота.
Серия тестов, проведенная сотрудниками Resecurity, показала, что N без раздумий отвечает на вопросы, связанные с изготовлением взрывчатки, наркотиками и другими запрещенными веществами, финансовыми махинациями и прочими темами, ограниченными международным правом. В рамках экспериментов ИИ-система также создавала вполне рабочие вредоносные скрипты, в том числе коды для установки бэкдоров и других типов вредоносного программного обеспечения (ПО). Согласно оценкам аналитиков, все полученные результаты вполне пригодны для практического применения.
Кто и зачем создает криминальные ИИ-сервисы
ИИ-сервисы, подобные N, создают участники даркнет-сообществ, которые ориентированы на монетизацию криминальной деятельности, говорит в беседе с «Известиями» эксперт по кибербезопасности Angara Security Никита Новиков. Цель создания таких инструментов — убрать все ограничения, существующие у легальных ИИ-платформ: модерацию, фильтры, юридическую ответственность и идентификацию пользователей.
— Для злоумышленников это способ получить универсальный инструмент, который можно использовать для мошенничества, подготовки атак или генерации запрещенного контента без риска блокировки, — рассказывает специалист. — Кроме того, такие сервисы снижают порог входа в киберпреступность, позволяя людям без технической экспертизы быстро реализовывать нелегальные сценарии.
N и его аналоги создаются и для автоматизации преступных схем, дополняет ведущий эксперт по сетевым угрозам и web-разработчик компании «Код безопасности» Константин Горбунов. Кроме того, теневыми разработчиками могут двигать идеологические мотивы. В свою очередь, инженер-аналитик компании «Газинформсервис» Екатерина Едемская считает, что появление N — крайне тревожный знак для сферы кибербезопасности.
Дело в том, что в отличие от аналогов этот ИИ-сервис не требует регистрации, оплаты или даже учетной записи. Создатели намеренно убрали все ограничения, чтобы привлечь криминальную аудиторию, а собственная инфраструктура делает сервис устойчивым к блокировкам. Это инструмент для реальных преступлений, опасность которого состоит в том, что он превращает сложные задачи в рутину: мошеннику больше не нужны навыки программирования, чтобы создать вирус или фишинговую рассылку.
— Даже медленная работа сервиса — временная проблема: если спрос вырастет, киберпреступники просто вложат деньги в мощности, — предупреждает Екатерина Едемская. — Особенно страшно, что N уже рекламируют на форумах, где торгуют наркотиками и украденными данными, — это четко очерчивает его целевую аудиторию.
Какие аналоги N встречались ранее и чем они опасны
N — не первый криминальный ИИ-сервис: его аналоги встречались ранее, рассказывает Екатерина Едемская. Однако они работали иначе — требовали подписки, регистрации и зависели от сторонних облаков, что делало их уязвимыми к блокировкам. Например, один из подобных сервисов продавался за криптовалюту как инструмент для фишинга и финансовых махинаций, но уже через полгода его активность сошла на нет из-за давления правоохранителей и технических сбоев.
— Другой инструмент, который позиционировался как «аналог ChatGPT без морали», тоже не прижился — его инфраструктуру частично демонтировали после утечки данных администраторов, — говорит собеседница «Известий». В то же время ранние сервисы редко брались за самые тяжкие преступления. Однако N, напротив, открыто рекламирует такие функции, что говорит о новом уровне цинизма. Большинство предыдущих проектов исчезали из-за слабой монетизации или арестов операторов.
В целом цикл подобных сервисов схож — после получения популярности притягивается и внимание правоохранительных органов, что создает риски для создателей сервиса, соглашается Константин Горбунов. В результате сервис может сменить название, домен, площадку либо же его исходные коды перейдут «последователям».
Между тем главная опасность N и его аналогов заключается в масштабировании, считает директор по продажам компании «Стахановец» и ИБ-эксперт Артем Жадеев. Один человек с таким инструментом может в короткий срок организовать масштабную мошенническую рассылку, производить в промышленных масштабах лживый контент для травли или манипуляций, а также сгенерировать контент для шантажа. Это не только увеличивает количество инцидентов, но и резко повышает их качество, перегружая системы защиты. Угроза становится массовой и изощренной одновременно.
Как бороться с криминальными ИИ-сервисами
Борьба с угрозами вроде N требует слаженных действий сразу на нескольких фронтах, говорит в беседе с «Известиями» Екатерина Едемская. Спецслужбы и специалисты по кибербезопасности должны активнее мониторить даркнет, используя тот же ИИ для отслеживания опасных сервисов, например, анализируя аномальную активность на форумах или шаблоны трафика через Tor.
— Важно наладить международное сотрудничество: такие проекты, как N, не знают границ, и только совместные усилия правоохранителей смогут ликвидировать их инфраструктуру, — отмечает эксперт. — Технические меры тоже критичны: провайдеры могут блокировать узлы Tor, связанные с криминальными площадками, а компании должны делиться данными об уязвимостях, чтобы оперативно нейтрализовать вредоносные скрипты.
По словам Екатерины Едемской, не менее важно работать с корнем проблемы — регулировать ИИ на этапе разработки. Законодатели должны обязать создателей внедрять «этические замки» даже в open-source-модели, а облака — отслеживать подозрительные запросы. Обычных пользователей нужно учить распознавать фишинг, а бизнес — защищать данные, чтобы утечки не попадали в руки преступников.
Даже бесплатный N зависит от аудитории: чем меньше жертв и соучастников, тем меньше у него ресурсов, отмечает эксперт. Поэтому стоит давить на экономику таких сервисов, блокируя криптокошельки, связанные с рекламой на наркофорумах, или атакуя их репутацию в даркнете.
— С дальнейшим развитием искусственного интеллекта подобные «гаражные» модели умрут сами — по причине своего устаревания и слабых мощностей. Обычная киберпреступность просто не сможет угнаться за легальными моделями, на работу которых требуются миллиарды долларов, — заключает главный технологический эксперт «Лаборатории Касперского» Александр Гостев.