Находка для шпиона: как сотрудники российских компаний сдают секреты нейросетям
Искусственный интеллект вторгся в корпоративную жизнь стремительнее, чем успели выстроиться защитные периметры. Аналитики ГК «Солар» зафиксировали тревожную тенденцию: объем корпоративной информации, направляемой сотрудниками в иностранные публичные ИИ-сервисы, вырос за 2025 год в 30 раз. При этом около 60% российских организаций работают в режиме информационного вакуума — без каких-либо политик регулирования использования нейросетей. Сочетание массовой доступности мощных инструментов и полного отсутствия контроля породило феномен, который специалисты по безопасности называют вторым пришествием теневой IT-инфраструктуры. Подробности — в материале «Известий».
Как секреты уходят в чат-боты
Аналитики компании «Солар», изучив трафик 150 клиентов из государственных структур, финансов, промышленности, ритейла, e-commerce, телекома и IT-сектора, зафиксировали опасные тенденции. За год объем корпоративных данных, передаваемых в публичные ИИ-сервисы вроде ChatGPT и Google Gemini, увеличился более чем в 30 раз. Сотрудники отправляют туда куски кода, финансовые отчеты, юридические бумаги и базы клиентов, чтобы автоматизировать рутину — анализ данных, саммари или написание скриптов. В итоге они сами способствуют утечкам информации, даже не подозревая об этом, рассказали «Известиям» в компании «Солар».
Парадокс в том, что корни проблемы лежат не в злонамеренности, а в банальном стремлении оптимизировать работу. Сотрудники, привыкшие к скорости и удобству генеративного ИИ в личных задачах, переносят те же инструменты в рабочие процессы, не осознавая, что они вредят собственным компаниям.
— Тридцатикратный рост утечек корпоративных данных через нейросети — это, конечно, тревожный сигнал. Но почему это происходит? Основная причина, на мой взгляд, — это банальное желание сотрудников работать эффективнее, — поясняет директор проектов IT-экосистемы «Лукоморье» («Ростелеком»), представитель ИИ-центра «Сирин» Екатерина Ионова. — Ведь часто компания не может предложить им какую-то альтернативу. Внутри корпоративного контура нет достаточно мощных моделей, а известные отечественные решения пока отстают по функционалу.
Давление сроков и растущая конкуренция на рынке труда вынуждают искать любые способы оптимизации. Когда выбор стоит между просрочкой отчета и быстрым решением через ChatGPT, многие забывают о границах конфиденциальности.
— Можно выделить три основные причины, — детализирует архитектор по информационной безопасности технологической компании Getmobit Султан Салпагаров. — Регулярность пользования сервисами также кратно возросла. Вслед за ней пропорционально растет и количество утечек. Конкуренция на рынке труда растет, как растет и производительность самого труда, а вслед за ней и требования к сотрудникам. Ты можешь подготовить отчет вовремя с помощью ИИ либо не сделать его вообще и получить точно.
Особую опасность представляет иллюзия безопасности. Сотрудники часто не воспринимают код, внутренние отчеты или стратегические презентации как нечто запретное — в отличие от персональных данных клиентов, о защите которых помнят чаще.
Как иностранные ИИ используют полученные данные
Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. Механизмы обработки данных разработаны таким образом, что каждый запрос становится потенциальным источником дохода для операторов платформ.
— Условия предоставления сервиса ИИ-моделей предполагают, что вся предоставленная информация сохраняется и используется как минимум в целях дальнейшего обучения моделей, как максимум — для сбора и упорядочивания информации о пользователях в исследовательских, маркетинговых и иных целях, — предупреждает Султан Салпагаров.
Опасность не ограничивается легальным использованием.
Злоумышленники разработали целый арсенал техник для извлечения чужих данных из обученных моделей — от инъекций промптов до целенаправленного вытягивания конфиденциальных фрагментов.
— Всё, что попадает в публичную нейросеть через промпты или прикрепленные файлы, может использоваться для ее дообучения. Удалить эту информацию из модели потом невозможно, и теоретически она может «всплыть» в ответе другому пользователю, — подчеркивает Екатерина Ионова.
По данным «Солара», 46% конфиденциальных файлов и промптов загружаются именно через ChatGPT — самую популярную и доступную модель. При этом сотрудники технологических компаний, которые должны лучше понимать риски, зачастую становятся главными нарушителями.
— Сотрудники технологичных компаний и IT-подразделений исторически смотрят на подобные сервисы и ПО довольно широко, — объясняет руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. — Перестройка сознания на импортозамещение активно происходит на организационном уровне, где оценка рисков и последствий кардинально изменилась. Однако на уровне конкретного человека этот процесс движется медленнее. Привычки и личные предпочтения оказываются сильнее.
Реальные инциденты демонстрируют масштаб угрозы. Инженеры Samsung загружали в ChatGPT секретный исходный код для оптимизации, а исполняющий обязанности главы американского агентства CISA лично выложил служебные контракты в публичный доступ. В обоих случаях утечка стала возможной из-за элементарного непонимания: данные, отправленные в чат-бот, покидают корпоративный периметр навсегда.
Когда запрет — не выход, а шлюзы — спасение
Реакция многих организаций на угрозу напоминает вышибание двери, когда достаточно было бы закрыть окно. Полная блокировка ИИ-сервисов лишает бизнес конкурентного преимущества и провоцирует сотрудников на обходные пути.
— ФСТЭК пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках, — констатирует Анастасия Хвещеник. — Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат.
Прогрессивные подходы предполагают тонкую настройку контроля, а не тотальный запрет.
— Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты, — отмечает Анастасия Хвещеник.
Дополнительный слой защиты формируется через DLP-системы, которые научились распознавать конфиденциальный контент прямо в запросах к нейросетям.
DLP-системы (Data Loss Prevention) — программно-аппаратные решения для предотвращения утечек конфиденциальной информации из организации.
— Современная DLP-система умеет анализировать, насколько чувствительный контент загружается в тот же самый ChatGPT или Gemini, и при необходимости предотвращать такую загрузку, — поясняет директор ГК InfoWatch по инновациям и продуктовому развитию Андрей Арефьев.
Однако технические средства работают только в сочетании с культурой безопасности. Обучение сотрудников, демонстрация реальных уязвимостей и понятные регламенты не менее важны, чем файрволы, уверены эксперты.
— Необходимо регулярно повышать их осведомленность о рисках, связанных с использованием ИИ-инструментов, а также о других угрозах, например о социальной инженерии с использованием дипфейков, — рекомендует руководитель отдела машинного обучения «МТС Линк» Дмитрий Крюков. — Цифровая гигиена в большинстве случаев становится залогом сохранности корпоративных данных.
Локальный ИИ: золотая середина или дорогое удовольствие
Переход на локальные нейросети, развернутые внутри корпоративного контура, выглядит логичным решением для организаций, работающих с чувствительной информацией. Однако этот путь усеян техническими и финансовыми подводными камнями, указывают эксперты.
— При условии правильного развертывания риски значительно снижаются, — подтверждает Султан Салпагаров. — Однако возможность использования локальных решений сильно ограничена. Мощности, необходимые для современных моделей с сопоставимым качеством, огромные. Как правило, речь идет о суммах в десятки и сотни миллионов рублей.
Даже крупные игроки вынуждены искать компромиссы. Гибридные схемы, когда базы данных и история общения хранятся локально, а вычислительные мощности арендуются у провайдера, становятся промежуточным решением.
— Более доступным считается гибридный формат развертывания моделей, — объясняет Дмитрий Крюков. — Базы данных, в том числе история общения с чат-ботом и переданные ему файлы, сохраняются на стороне компании, а сама модель размещается у провайдера. При полном локальном развертывании компания получает неоспоримые преимущества контроля, но приобретает новые обязанности.
Исполнительный директор «Аэроклуб ИТ» Александр Жуков добавил, что локальный запуск ИИ-решений дает ряд существенных преимуществ. Во-первых, обеспечивается полный контроль над данными: они не покидают периметр организации. Во-вторых, это позволяет соблюдать требования по локализации данных, в том числе те, которые содержатся в российском ФЗ 152. В-третьих, компания получает предсказуемую модель затрат и независимость от облачных провайдеров.
Будущее: регулирование вместо запрета
Государственные структуры отдают себе отчет в том, что ИИ невозможно остановить, его можно только направить. В августе 2025 года Минцифры представило проект концепции регулирования искусственного интеллекта до 2030 года с системой оценки рисков и ответственностью за вред от ИИ.
— В обновленных требованиях к защите информации в государственных информационных системах уже добавлен раздел, где определены стандарты безопасной архитектуры для систем, в которых применяется искусственный интеллект, — констатирует эксперт Security Vision Максим Репко.
Технологический суверенитет требует баланса между контролем и инновациями. Полный запрет обрекает компании на отставание, а бесконтрольное использование — на утечки.
— Компания в такой ситуации должна пойти по пути построения системного контроля, — резюмирует Екатерина Ионова. — Внедрить четкие внутренние политики, внедрить средства фильтрации трафика, постоянно обучать сотрудников.
«Известия» направили запросы в Минцифры.