Перейти к основному содержанию
Реклама
Прямой эфир
Армия
Силы ПВО за ночь уничтожили 95 БПЛА ВСУ над регионами России
Мир
В раде заявили о спорах вокруг подписания соглашения с Россией
Общество
Более 89% россиян поддержали нахождение синатропных птиц в городской среде
Мир
WP сообщила о планах Трампа установить статую Колумба перед Белым домом
Мир
Дмитрук заявил об унижении Зеленским и ТЦК украинцев
Общество
Психолог предупредил о новом виде зависимости от нейросетей
Происшествия
В новосибирской школе обрушилась крыша площадью около 100 кв. м
Авто
Рост средней стоимости новых авто в РФ замедлился в январе
Мир
Действие договора с США об ограничении ядерных вооружений закончилось. Почему это важно
Мир
Спутниковая связь Starlink стала доступна в Таджикистане
Общество
HR-директор назвала главную ошибку компаний в борьбе за эффективность
Происшествия
При пожаре в Туле погибли женщина и ребенок
Мир
Стивен Хокинг более 200 раз упоминался в файлах Эпштейна
Армия
Тульские разработчики запустили серийное производство тяжелого FPV-дрона «Провод»
Мир
РФПИ опроверг заявление Туска о возможных российских связях Эпштейна
Общество
В России предложили сделать постоянным налоговый режим для самозанятых
Общество
Ученые сообщили об ухудшении качества сна при прослушивании розового шума
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект вторгся в корпоративную жизнь стремительнее, чем успели выстроиться защитные периметры. Аналитики ГК «Солар» зафиксировали тревожную тенденцию: объем корпоративной информации, направляемой сотрудниками в иностранные публичные ИИ-сервисы, вырос за 2025 год в 30 раз. При этом около 60% российских организаций работают в режиме информационного вакуума — без каких-либо политик регулирования использования нейросетей. Сочетание массовой доступности мощных инструментов и полного отсутствия контроля породило феномен, который специалисты по безопасности называют вторым пришествием теневой IT-инфраструктуры. Подробности — в материале «Известий».

Как секреты уходят в чат-боты

Аналитики компании «Солар», изучив трафик 150 клиентов из государственных структур, финансов, промышленности, ритейла, e-commerce, телекома и IT-сектора, зафиксировали опасные тенденции. За год объем корпоративных данных, передаваемых в публичные ИИ-сервисы вроде ChatGPT и Google Gemini, увеличился более чем в 30 раз. Сотрудники отправляют туда куски кода, финансовые отчеты, юридические бумаги и базы клиентов, чтобы автоматизировать рутину — анализ данных, саммари или написание скриптов. В итоге они сами способствуют утечкам информации, даже не подозревая об этом, рассказали «Известиям» в компании «Солар».

Чат GPT
Фото: ИЗВЕСТИЯ/Анна Селина

Парадокс в том, что корни проблемы лежат не в злонамеренности, а в банальном стремлении оптимизировать работу. Сотрудники, привыкшие к скорости и удобству генеративного ИИ в личных задачах, переносят те же инструменты в рабочие процессы, не осознавая, что они вредят собственным компаниям.

— Тридцатикратный рост утечек корпоративных данных через нейросети — это, конечно, тревожный сигнал. Но почему это происходит? Основная причина, на мой взгляд, — это банальное желание сотрудников работать эффективнее, — поясняет директор проектов IT-экосистемы «Лукоморье» («Ростелеком»), представитель ИИ-центра «Сирин» Екатерина Ионова. — Ведь часто компания не может предложить им какую-то альтернативу. Внутри корпоративного контура нет достаточно мощных моделей, а известные отечественные решения пока отстают по функционалу.

Давление сроков и растущая конкуренция на рынке труда вынуждают искать любые способы оптимизации. Когда выбор стоит между просрочкой отчета и быстрым решением через ChatGPT, многие забывают о границах конфиденциальности.

— Можно выделить три основные причины, — детализирует архитектор по информационной безопасности технологической компании Getmobit Султан Салпагаров. — Регулярность пользования сервисами также кратно возросла. Вслед за ней пропорционально растет и количество утечек. Конкуренция на рынке труда растет, как растет и производительность самого труда, а вслед за ней и требования к сотрудникам. Ты можешь подготовить отчет вовремя с помощью ИИ либо не сделать его вообще и получить точно.

Офис
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

Особую опасность представляет иллюзия безопасности. Сотрудники часто не воспринимают код, внутренние отчеты или стратегические презентации как нечто запретное — в отличие от персональных данных клиентов, о защите которых помнят чаще.

Как иностранные ИИ используют полученные данные

Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. Механизмы обработки данных разработаны таким образом, что каждый запрос становится потенциальным источником дохода для операторов платформ.

Условия предоставления сервиса ИИ-моделей предполагают, что вся предоставленная информация сохраняется и используется как минимум в целях дальнейшего обучения моделей, как максимум — для сбора и упорядочивания информации о пользователях в исследовательских, маркетинговых и иных целях, — предупреждает Султан Салпагаров.

Опасность не ограничивается легальным использованием.

Сотрудник
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

Злоумышленники разработали целый арсенал техник для извлечения чужих данных из обученных моделей — от инъекций промптов до целенаправленного вытягивания конфиденциальных фрагментов.

Всё, что попадает в публичную нейросеть через промпты или прикрепленные файлы, может использоваться для ее дообучения. Удалить эту информацию из модели потом невозможно, и теоретически она может «всплыть» в ответе другому пользователю, — подчеркивает Екатерина Ионова.

По данным «Солара», 46% конфиденциальных файлов и промптов загружаются именно через ChatGPT — самую популярную и доступную модель. При этом сотрудники технологических компаний, которые должны лучше понимать риски, зачастую становятся главными нарушителями.

— Сотрудники технологичных компаний и IT-подразделений исторически смотрят на подобные сервисы и ПО довольно широко, — объясняет руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. — Перестройка сознания на импортозамещение активно происходит на организационном уровне, где оценка рисков и последствий кардинально изменилась. Однако на уровне конкретного человека этот процесс движется медленнее. Привычки и личные предпочтения оказываются сильнее.

Нейросеть
Фото: ИЗВЕСТИЯ/Анна Селина

Реальные инциденты демонстрируют масштаб угрозы. Инженеры Samsung загружали в ChatGPT секретный исходный код для оптимизации, а исполняющий обязанности главы американского агентства CISA лично выложил служебные контракты в публичный доступ. В обоих случаях утечка стала возможной из-за элементарного непонимания: данные, отправленные в чат-бот, покидают корпоративный периметр навсегда.

Когда запрет — не выход, а шлюзы — спасение

Реакция многих организаций на угрозу напоминает вышибание двери, когда достаточно было бы закрыть окно. Полная блокировка ИИ-сервисов лишает бизнес конкурентного преимущества и провоцирует сотрудников на обходные пути.

ФСТЭК пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках, — констатирует Анастасия Хвещеник. — Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат.

Прогрессивные подходы предполагают тонкую настройку контроля, а не тотальный запрет.

Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты, — отмечает Анастасия Хвещеник.

Бизнес
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

Дополнительный слой защиты формируется через DLP-системы, которые научились распознавать конфиденциальный контент прямо в запросах к нейросетям.

Справка «Известий»

DLP-системы (Data Loss Prevention) — программно-аппаратные решения для предотвращения утечек конфиденциальной информации из организации.

— Современная DLP-система умеет анализировать, насколько чувствительный контент загружается в тот же самый ChatGPT или Gemini, и при необходимости предотвращать такую загрузку, — поясняет директор ГК InfoWatch по инновациям и продуктовому развитию Андрей Арефьев.

Однако технические средства работают только в сочетании с культурой безопасности. Обучение сотрудников, демонстрация реальных уязвимостей и понятные регламенты не менее важны, чем файрволы, уверены эксперты.

Дипфейк
Фото: ИЗВЕСТИЯ/Анна Селина

— Необходимо регулярно повышать их осведомленность о рисках, связанных с использованием ИИ-инструментов, а также о других угрозах, например о социальной инженерии с использованием дипфейков, — рекомендует руководитель отдела машинного обучения «МТС Линк» Дмитрий Крюков. — Цифровая гигиена в большинстве случаев становится залогом сохранности корпоративных данных.

Локальный ИИ: золотая середина или дорогое удовольствие

Переход на локальные нейросети, развернутые внутри корпоративного контура, выглядит логичным решением для организаций, работающих с чувствительной информацией. Однако этот путь усеян техническими и финансовыми подводными камнями, указывают эксперты.

— При условии правильного развертывания риски значительно снижаются, — подтверждает Султан Салпагаров. — Однако возможность использования локальных решений сильно ограничена. Мощности, необходимые для современных моделей с сопоставимым качеством, огромные. Как правило, речь идет о суммах в десятки и сотни миллионов рублей.

Даже крупные игроки вынуждены искать компромиссы. Гибридные схемы, когда базы данных и история общения хранятся локально, а вычислительные мощности арендуются у провайдера, становятся промежуточным решением.

ИИ
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

— Более доступным считается гибридный формат развертывания моделей, — объясняет Дмитрий Крюков. — Базы данных, в том числе история общения с чат-ботом и переданные ему файлы, сохраняются на стороне компании, а сама модель размещается у провайдера. При полном локальном развертывании компания получает неоспоримые преимущества контроля, но приобретает новые обязанности.

Исполнительный директор «Аэроклуб ИТ» Александр Жуков добавил, что локальный запуск ИИ-решений дает ряд существенных преимуществ. Во-первых, обеспечивается полный контроль над данными: они не покидают периметр организации. Во-вторых, это позволяет соблюдать требования по локализации данных, в том числе те, которые содержатся в российском ФЗ 152. В-третьих, компания получает предсказуемую модель затрат и независимость от облачных провайдеров.

Будущее: регулирование вместо запрета

Государственные структуры отдают себе отчет в том, что ИИ невозможно остановить, его можно только направить. В августе 2025 года Минцифры представило проект концепции регулирования искусственного интеллекта до 2030 года с системой оценки рисков и ответственностью за вред от ИИ.

— В обновленных требованиях к защите информации в государственных информационных системах уже добавлен раздел, где определены стандарты безопасной архитектуры для систем, в которых применяется искусственный интеллект, — констатирует эксперт Security Vision Максим Репко.

Технологический суверенитет требует баланса между контролем и инновациями. Полный запрет обрекает компании на отставание, а бесконтрольное использование — на утечки.

Минцифры
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

— Компания в такой ситуации должна пойти по пути построения системного контроля, — резюмирует Екатерина Ионова. — Внедрить четкие внутренние политики, внедрить средства фильтрации трафика, постоянно обучать сотрудников.

«Известия» направили запросы в Минцифры.

Читайте также
Прямой эфир