Перейти к основному содержанию
Реклама
Прямой эфир
Наука и техника
Астроном сообщил о возможном наличии у 3I/ATLAS двух хвостов
Мир
Эксперт сообщил о покупке Европой энергоносителей в три раза дороже российских
Общество
Временные ограничения ввели в аэропорту Пензы
Мир
Дед Мороз из Великого Устюга прогулялся по Риму в рамках предновогоднего турне
Общество
В аэропорту Тамбова были введены временные ограничения на работу
Мир
Глава МИД Польши обвинил Маска и Дмитриева в намерении «разделить Европу»
Армия
Средства ПВО сбили 17 украинских БПЛА над территорией России за пять часов
Мир
Кулеба сообщил о готовности отправиться на фронт после получения повестки
Мир
Эйсмон объяснила участие сыновей Лукашенко в переговорах в Омане
Происшествия
В Саратовской области три человека погибли и трое пострадали в ДТП
Мир
Глава МИД Белоруссии заявил о провокациях Литвы с дронами ради денег из ЕС
Спорт
Большунов проиграл 0,1 секунды Коростелеву на финише масс-старта в Кубке России
Общество
Губернатор Запорожской области сообщил о восстановлении электроснабжения
Мир
Трамп-младший допустил отказ своего отца от поддержки Украины
Здоровье
Врач Попов назвал боли в животе и метеоризм признаками инфаркта
Мир
В Германии освободили обвиняемую по делу «рейхсбюргеров» россиянку
Общество
В ИКИ РАН предупредили о сильных магнитных бурях 9–10 декабря

Эксперты предупредили о последствиях бесконтрольного развития ИИ

0
EN
Фото: РИА Новости/Максим Богодвид
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект — уже не только про «умных» ассистентов и быстрые вычисления, предупреждают эксперты Positive Technologies. Специалисты проанализировали три ключевых тренда ИИ — агентский ИИ, edge AI и квантовый ИИ — и выяснили: за каждым из них стоит не только потенциал для бизнеса, но и серьезные киберугрозы.

Агентский ИИ, работающий на больших языковых моделях (LLM), — это боты, которые самостоятельно анализируют данные, принимают решения и даже общаются с клиентами. По прогнозам Gartner, к 2028 году такие системы смогут автоматизировать до 15% рутины бизнеса: от управления логистикой до персонализированного обслуживания. Однако, как выяснилось, у этого решения есть и обратная сторона.

Злоумышленники научились обманывать агентов: подменять данные в их памяти, подкидывать ложную информацию (например, фейковые заказы клиентов) или перегружать систему запросами. Это может привести к цепочке ошибок: бот способен начать игнорировать политики безопасности, отправлять конфиденциальные данные не туда или даже запускать вредоносные действия. А если внедрить вредоносный код в фреймворки для создания таких агентов — пострадают все связанные с ними системы.

Edge AI — это ИИ, который работает «на месте»: например, в умных камерах, медицинских датчиках или датчиках умного дома. Он обрабатывает данные без стабильного интернета, что критично для медицины (диагностика в реальном времени) или умных городов (контроль светофоров без задержек).

Умные устройства часто имеют уязвимости: устаревшие компоненты, небезопасные настройки. Злоумышленники могут атаковать их через сеть (DDoS, спуфинг — подмена IP / MAC-адресов) или подменить входные данные. Например, в медицине это может привести к неправильной диагностике, а в промышленности — к сбоям оборудования.

Квантовый ИИ пока мало распространен, но его потенциал огромен: он решает сложнейшие задачи оптимизации (например, в логистике или фармацевтике) и моделирует молекулы для разработки новых материалов. Сейчас такие решения доступны через так называемые облака, и именно это создает риски.

Злоумышленники могут взломать облачные платформы, чтобы украсть архитектуру моделей ИИ или обучающие данные. А если подменить входные данные, то, например, в фармацевтике токсичное вещество может быть признано безопасным, а в финансах — не распознаны мошеннические транзакции. К тому же квантовый ИИ усиливает традиционные атаки: например, помогает взламывать пароли методом перебора.

Сейчас злоумышленникам проще взламывать корпоративные системы старыми методами, чем атаковать ИИ-агентов или квантовые модели. Но завтра всё может измениться», — говорит Яна Авезова, ведущий аналитик Positive Technologies.

Эксперты советуют не паниковать, но быть бдительными. Внедряя ИИ, бизнес должен, во-первых, интегрировать кибербезопасность в стратегию: не ограничиваться защитой моделей, а контролировать, как ИИ взаимодействует с бизнес-процессами. Далее необходимо обучать сотрудников, чтобы персонал понимал риски и мог распознавать подозрительные действия ИИ. И, в третьих, защищать данные: ограничивать доступ к информации, которую использует ИИ, и внедрять механизмы контроля утечек.

31 июля сообщалось, что так называемые цифровые собеседники становятся настоящими компаньонами для тысяч россиян. В 2025 году число пользователей таких сервисов удвоилось, а средний трафик ИИ-помощников взлетел в четыре раза, свидетельствует аналитика компании Yota. Особенно взрывной рост показали боты для психологической поддержки: их аудитория стала почти в пять раз больше.

Читайте также
Прямой эфир