Перейти к основному содержанию
Реклама
Прямой эфир
Общество
В аэропорту Краснодара сняты ограничения на полеты воздушных судов
Мир
Генсек ООН призвал РФ и США договориться о новом ядерном соглашении
Мир
Посол РФ в Дании сообщил об усилении контроля страны за танкерами с нефтью
Мир
Американский профессор предрек миру новую гонку вооружений после прекращения ДСНВ
Мир
Во Франции назвали возможную цель попыток Макрона наладить отношения с РФ
Мир
Подполковник указал на выгоду для США в случае продления действия ДСНВ
Наука и техника
Глава РАН Красников объяснил аномалии кометы 3I/ATLAS
Мир
Премьер Испании назвал «лаем техноолигархов» критику со стороны Маска и Дурова
Общество
Ученые указали на связь микробов с формированием иммунитета к аллергенам
Происшествия
Мирный житель пострадал при атаке БПЛА на Ростовскую область
Мир
Зеленский выразил надежду на урегулирование конфликта менее чем за год
Общество
Исследователи объяснили плохое качество сна в первую ночь в новой обстановке
Мир
Стивен Хокинг более 200 раз упоминался в файлах Эпштейна
Мир
Трамп напомнил о ложности обвинений России во вмешательстве в американские выборы
Мир
РФПИ опроверг заявление Туска о возможных российских связях Эпштейна
Происшествия
В Забайкалье 11 вагонов грузового поезда с углем сошли с рельсов
Общество
Ученые сообщили об ухудшении качества сна при прослушивании розового шума
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект вторгся в корпоративную жизнь стремительнее, чем успели выстроиться защитные периметры. Аналитики ГК «Солар» зафиксировали тревожную тенденцию: объем корпоративной информации, направляемой сотрудниками в иностранные публичные ИИ-сервисы, вырос за 2025 год в 30 раз. При этом около 60% российских организаций работают в режиме информационного вакуума — без каких-либо политик регулирования использования нейросетей. Сочетание массовой доступности мощных инструментов и полного отсутствия контроля породило феномен, который специалисты по безопасности называют вторым пришествием теневой IT-инфраструктуры. Подробности — в материале «Известий».

Как секреты уходят в чат-боты

Аналитики компании «Солар», изучив трафик 150 клиентов из государственных структур, финансов, промышленности, ритейла, e-commerce, телекома и IT-сектора, зафиксировали опасные тенденции. За год объем корпоративных данных, передаваемых в публичные ИИ-сервисы вроде ChatGPT и Google Gemini, увеличился более чем в 30 раз. Сотрудники отправляют туда куски кода, финансовые отчеты, юридические бумаги и базы клиентов, чтобы автоматизировать рутину — анализ данных, саммари или написание скриптов. В итоге они сами способствуют утечкам информации, даже не подозревая об этом, рассказали «Известиям» в компании «Солар».

Чат GPT
Фото: ИЗВЕСТИЯ/Анна Селина

Парадокс в том, что корни проблемы лежат не в злонамеренности, а в банальном стремлении оптимизировать работу. Сотрудники, привыкшие к скорости и удобству генеративного ИИ в личных задачах, переносят те же инструменты в рабочие процессы, не осознавая, что они вредят собственным компаниям.

— Тридцатикратный рост утечек корпоративных данных через нейросети — это, конечно, тревожный сигнал. Но почему это происходит? Основная причина, на мой взгляд, — это банальное желание сотрудников работать эффективнее, — поясняет директор проектов IT-экосистемы «Лукоморье» («Ростелеком»), представитель ИИ-центра «Сирин» Екатерина Ионова. — Ведь часто компания не может предложить им какую-то альтернативу. Внутри корпоративного контура нет достаточно мощных моделей, а известные отечественные решения пока отстают по функционалу.

Давление сроков и растущая конкуренция на рынке труда вынуждают искать любые способы оптимизации. Когда выбор стоит между просрочкой отчета и быстрым решением через ChatGPT, многие забывают о границах конфиденциальности.

— Можно выделить три основные причины, — детализирует архитектор по информационной безопасности технологической компании Getmobit Султан Салпагаров. — Регулярность пользования сервисами также кратно возросла. Вслед за ней пропорционально растет и количество утечек. Конкуренция на рынке труда растет, как растет и производительность самого труда, а вслед за ней и требования к сотрудникам. Ты можешь подготовить отчет вовремя с помощью ИИ либо не сделать его вообще и получить точно.

Офис
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

Особую опасность представляет иллюзия безопасности. Сотрудники часто не воспринимают код, внутренние отчеты или стратегические презентации как нечто запретное — в отличие от персональных данных клиентов, о защите которых помнят чаще.

Как иностранные ИИ используют полученные данные

Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. Механизмы обработки данных разработаны таким образом, что каждый запрос становится потенциальным источником дохода для операторов платформ.

Условия предоставления сервиса ИИ-моделей предполагают, что вся предоставленная информация сохраняется и используется как минимум в целях дальнейшего обучения моделей, как максимум — для сбора и упорядочивания информации о пользователях в исследовательских, маркетинговых и иных целях, — предупреждает Султан Салпагаров.

Опасность не ограничивается легальным использованием.

Сотрудник
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

Злоумышленники разработали целый арсенал техник для извлечения чужих данных из обученных моделей — от инъекций промптов до целенаправленного вытягивания конфиденциальных фрагментов.

Всё, что попадает в публичную нейросеть через промпты или прикрепленные файлы, может использоваться для ее дообучения. Удалить эту информацию из модели потом невозможно, и теоретически она может «всплыть» в ответе другому пользователю, — подчеркивает Екатерина Ионова.

По данным «Солара», 46% конфиденциальных файлов и промптов загружаются именно через ChatGPT — самую популярную и доступную модель. При этом сотрудники технологических компаний, которые должны лучше понимать риски, зачастую становятся главными нарушителями.

— Сотрудники технологичных компаний и IT-подразделений исторически смотрят на подобные сервисы и ПО довольно широко, — объясняет руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. — Перестройка сознания на импортозамещение активно происходит на организационном уровне, где оценка рисков и последствий кардинально изменилась. Однако на уровне конкретного человека этот процесс движется медленнее. Привычки и личные предпочтения оказываются сильнее.

Нейросеть
Фото: ИЗВЕСТИЯ/Анна Селина

Реальные инциденты демонстрируют масштаб угрозы. Инженеры Samsung загружали в ChatGPT секретный исходный код для оптимизации, а исполняющий обязанности главы американского агентства CISA лично выложил служебные контракты в публичный доступ. В обоих случаях утечка стала возможной из-за элементарного непонимания: данные, отправленные в чат-бот, покидают корпоративный периметр навсегда.

Когда запрет — не выход, а шлюзы — спасение

Реакция многих организаций на угрозу напоминает вышибание двери, когда достаточно было бы закрыть окно. Полная блокировка ИИ-сервисов лишает бизнес конкурентного преимущества и провоцирует сотрудников на обходные пути.

ФСТЭК пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках, — констатирует Анастасия Хвещеник. — Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат.

Прогрессивные подходы предполагают тонкую настройку контроля, а не тотальный запрет.

Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты, — отмечает Анастасия Хвещеник.

Бизнес
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

Дополнительный слой защиты формируется через DLP-системы, которые научились распознавать конфиденциальный контент прямо в запросах к нейросетям.

Справка «Известий»

DLP-системы (Data Loss Prevention) — программно-аппаратные решения для предотвращения утечек конфиденциальной информации из организации.

— Современная DLP-система умеет анализировать, насколько чувствительный контент загружается в тот же самый ChatGPT или Gemini, и при необходимости предотвращать такую загрузку, — поясняет директор ГК InfoWatch по инновациям и продуктовому развитию Андрей Арефьев.

Однако технические средства работают только в сочетании с культурой безопасности. Обучение сотрудников, демонстрация реальных уязвимостей и понятные регламенты не менее важны, чем файрволы, уверены эксперты.

Дипфейк
Фото: ИЗВЕСТИЯ/Анна Селина

— Необходимо регулярно повышать их осведомленность о рисках, связанных с использованием ИИ-инструментов, а также о других угрозах, например о социальной инженерии с использованием дипфейков, — рекомендует руководитель отдела машинного обучения «МТС Линк» Дмитрий Крюков. — Цифровая гигиена в большинстве случаев становится залогом сохранности корпоративных данных.

Локальный ИИ: золотая середина или дорогое удовольствие

Переход на локальные нейросети, развернутые внутри корпоративного контура, выглядит логичным решением для организаций, работающих с чувствительной информацией. Однако этот путь усеян техническими и финансовыми подводными камнями, указывают эксперты.

— При условии правильного развертывания риски значительно снижаются, — подтверждает Султан Салпагаров. — Однако возможность использования локальных решений сильно ограничена. Мощности, необходимые для современных моделей с сопоставимым качеством, огромные. Как правило, речь идет о суммах в десятки и сотни миллионов рублей.

Даже крупные игроки вынуждены искать компромиссы. Гибридные схемы, когда базы данных и история общения хранятся локально, а вычислительные мощности арендуются у провайдера, становятся промежуточным решением.

ИИ
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

— Более доступным считается гибридный формат развертывания моделей, — объясняет Дмитрий Крюков. — Базы данных, в том числе история общения с чат-ботом и переданные ему файлы, сохраняются на стороне компании, а сама модель размещается у провайдера. При полном локальном развертывании компания получает неоспоримые преимущества контроля, но приобретает новые обязанности.

Исполнительный директор «Аэроклуб ИТ» Александр Жуков добавил, что локальный запуск ИИ-решений дает ряд существенных преимуществ. Во-первых, обеспечивается полный контроль над данными: они не покидают периметр организации. Во-вторых, это позволяет соблюдать требования по локализации данных, в том числе те, которые содержатся в российском ФЗ 152. В-третьих, компания получает предсказуемую модель затрат и независимость от облачных провайдеров.

Будущее: регулирование вместо запрета

Государственные структуры отдают себе отчет в том, что ИИ невозможно остановить, его можно только направить. В августе 2025 года Минцифры представило проект концепции регулирования искусственного интеллекта до 2030 года с системой оценки рисков и ответственностью за вред от ИИ.

— В обновленных требованиях к защите информации в государственных информационных системах уже добавлен раздел, где определены стандарты безопасной архитектуры для систем, в которых применяется искусственный интеллект, — констатирует эксперт Security Vision Максим Репко.

Технологический суверенитет требует баланса между контролем и инновациями. Полный запрет обрекает компании на отставание, а бесконтрольное использование — на утечки.

Минцифры
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

— Компания в такой ситуации должна пойти по пути построения системного контроля, — резюмирует Екатерина Ионова. — Внедрить четкие внутренние политики, внедрить средства фильтрации трафика, постоянно обучать сотрудников.

«Известия» направили запросы в Минцифры.

Читайте также
Прямой эфир