Перейти к основному содержанию
Реклама
Прямой эфир
Мир
WSJ сообщила об усилении США систем ПВО на случай возможного ответного удара Ирана
Армия
Силы ПВО уничтожили 23 украинских БПЛА над территорией России за пять часов
Экономика
На импортозамещение технологий в нефтедобыче выделят 15 млрд
Мир
Зеленский заявил об отправке переговорной команды в ОАЭ в понедельник
Экономика
За семь лет только золото и вклады принесли доход выше инфляции
Армия
Ефрейтор Ендальцев помог раненному FPV-дронами ВСУ бойцу ВС РФ и эвакуировал его
Спорт
Российский вратарь ПСЖ Сафонов отбил пенальти в матче против «Страсбура»
Мир
Глава МИД Франции заявил о необходимости Европы иметь прямой канал связи с РФ
Мир
Власти Ирана опубликовали список практически 3 тыс. имен жертв беспорядков
Общество
Долина заявила о необходимости снимать квартиру из-за нехватки средств на новую
Мир
Глава Николаевской области заявил об истощении украинского народа и армии
Мир
Трамп заявил о возможной «сделке с Кубой»
Происшествия
В СК РФ поручили доложить о ходе проверки после убийства беременной женщины в ФРГ
Мир
Зеленский раскритиковал власти Киева из-за ситуации с энергосистемой в столице
Мир
Трамп выразил надежду на достижение соглашения с Ираном
Происшествия
Мирный житель пострадал при атаке дрона ВСУ на Белгородскую область
Мир
Медведев отметил рост продуктивности российско‑американских контактов при Трампе
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект (ИИ) может существенно изменить киберпреступность в 2026 году — об этом предупредили эксперты. Он привлекает злоумышленников, поскольку позволяет осуществлять различные атаки быстрее, а также снижает порог входа в незаконную деятельность, что становится большой проблемой для специалистов по кибербезопасности. Подробности о том, как хакеры будут использовать ИИ в ближайшие 12 месяцев, как это изменит ландшафт киберугроз и что поможет бороться с ними, читайте в материале «Известий»

Чем искусственный интеллект привлекает киберпреступников

Злоумышленники зачастую используют искусственный интеллект для генерации фишинговых писем, при написании вредоносного кода, а также для автоматизации некоторых этапов кибератак, говорит в беседе с «Известиями» руководитель BI.ZONE Threat Intelligence Олег Скулкин. Иными словами, ИИ привлекает хакеров потому, что позволяет осуществлять атаки быстрее, а также снижает порог входа в киберпреступность.

Хакер
Фото: ИЗВЕСТИЯ/Сергей Коньков

— Злоумышленники используют ИИ для создания вредоносных скриптов, генерации фишинговых страниц и, в целом, автоматизации кибератак. Это подтверждают отчеты ИИ-вендоров и ИБ-компаний, — отмечает руководитель группы исследования технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.

Нейросети могут анализировать огромное количество данных в очень короткий промежуток времени, дополняет GR-директор ИБ-компании «Код Безопасности» Александра Шмигирилова. Если дать задание ИИ составить портрет человека по его социальным сетям и другой открытой информации в интернете, то при правильной постановке задачи ИИ сможет не только создать общий портрет персоны, но и отдельно указать его интересы, слабости и сильные стороны.

Клавиатура
Фото: ИЗВЕСТИЯ/Сергей Коньков

Таким образом, преступникам больше не надо проводить много времени, чтобы изучить потенциальную жертву. Они просто пишут конкретный промт и получают полный портрет, причем вместе с советами, как и что сказать, чтобы внимание человека было гарантированно привлечено.

Как нейросети изменят киберпреступность в 2026 году

К 2026 году киберпреступники, скорее всего, доведут применение ИИ до промышленных масштабов, считает инженер-аналитик компании «Газинформсервис» Екатерина Едемская. Deepfake станет еще опаснее: реалистичные подделки голоса и видео в реальном времени позволят обманывать даже системы биометрической верификации, например для доступа к банковским счетам или корпоративным сетям.

Камера
Фото: Global Look Press/Shireen Broszies

— Нейросети будут автоматически сканировать уязвимости не только в софте, но и в «умных» устройствах — от камер наблюдения до медицинских приборов, создавая цепные атаки на критическую инфраструктуру, — прогнозирует собеседница «Известий». — Особую угрозу представят нейросети, которые самостоятельно проектируют вредоносные программы, адаптируясь к антивирусам на лету — такие атаки будут дешевле и доступнее, что привлечет «кибернаемников» без технического бэкграунда.

Кроме того, по мнению Екатерины Едемской, в 2026 году могут стать массовыми атаки на ИИ-ассистентов: хакеры будут внедрять трояны в нейросети, чтобы перехватывать конфиденциальные запросы пользователей. Рост числа IoT-устройств и 5G-сетей откроет новые точки входа, а автоматизация через ИИ сделает взломы почти безлюдными — один оператор сможет контролировать тысячи зараженных устройств одновременно.

С тем, что в будущем году киберпреступники продолжат использовать нейросети для своих целей, согласен и Олег Скулкин. Однако, отмечает эксперт, сейчас ни одна из известных специалистам по кибербезопасности ИИ-технологий не позволяет предположить, что в ближайшее время произойдет какой-то прорыв в применении нейросетей в атаках.

Кибератака
Фото: ИЗВЕСТИЯ/Сергей Коньков

— Наиболее вероятное направление для использования атакующими ИИ будет заключаться в оптимизации и ускорении различных процессов кибератак, — отмечает эксперт. — Это может привести к расширению их масштаба.

Как хакеры используют искусственный интеллект сегодня

В настоящее время атакующие используют ИИ для разных целей: так, кибергруппировка Rare Werewolf применяет языковые модели для создания вредоносного ПО на PowerShell и C#, рассказывает Олег Скулкин. А для написания простых вредоносных программ злоумышленники могут обращаться к таким моделям, как GPT, DeepSeek, Gemini и Claude.

GPT
Фото: ИЗВЕСТИЯ/Анна Селина

— Известны случаи, когда атакующие стремились ускорить процесс атаки, — говорит собеседник «Известий». — Яркий пример — недавний случай использования нейросети Claude для атаки на множество различных организаций. Атаку зафиксировала американская компания, которая занимается исследованиями в области ИИ.

По словам Олега Скулкина, злоумышленники ввели модель в заблуждение, поставив множество маленьких задач, которые выглядят легитимными на первый взгляд. Так, шаг за шагом ИИ выполнил необходимые действия, которые затем позволили киберпреступникам реализовать атаку. Важно отметить, что нейросеть допустила ошибки, которые злоумышленникам пришлось исправлять вручную. Однако благодаря тому, что атакующие выполнили большую часть задач через ИИ, им удалось провести атаку гораздо быстрее.

В свою очередь, руководитель отдела анализа кода Angara Security Илья Поляков отмечает, что, помимо фишинговых текстов, киберпреступники сегодня активно применяют технологии создания дипфейков (видео и голоса) для обмана сотрудников и биометрических систем, а также ИИ-инструменты для разработки полиморфного вредоносного кода, не вызывающего сработок сигнатурных модулей антивирусов.

Дипфейк
Фото: Getty Images/Tero Vesalainen

— На черном рынке давно функционирует полноценная экосистема зловредных ИИ-инструментов, — дополняет руководитель группы направления «Информационная безопасность» Лиги Цифровой Экономики Александра Слынько. — Например, существует преступный аналог ChatGPT, ежемесячная подписка на который стоит около 15 тыс. рублей. Нелегальная программа никак не ограничивает пользователя в запросах и готова помочь как с разработкой вредоносных приложений, так и с написанием мошеннических писем.

Что поможет бороться с ИИ-угрозами от киберпреступников

Возможность того, что в будущем злоумышленники продолжат использовать ИИ для повышения эффективности своих атак, нельзя исключать, считает Владислав Тушканов. Однако при этом важно учитывать: такой подход кардинально не меняет существующий ландшафт киберугроз.

— Фишинг, скам, вредоносные программы и мошеннические сообщения злоумышленники использовали и раньше, — объясняет собеседник «Известий». — Применение злоумышленниками ИИ не позволяет создавать принципиально новых киберугроз, а с уже существующими эффективно справляют современные защитные решения. К тому же ИИ активно используется и в сфере ИБ.

Тем не менее практика применения ИИ атакующими может несколько повышать объемы кибератак и скорость их реализации, расширять возможности злоумышленников, снижать порог входа в индустрию. В таких условиях, как ни парадоксально, активное использование ИИ специалистами по кибербезопасности становится одним из наиболее перспективных направлений повышения эффективности киберзащиты, отмечает Владислав Тушканов.

Провод
Фото: Global Look Press/Sergey Lantyukhov

При защите от атак методами социальной инженерии, использующими ИИ, большая доля ответственности лежит на пользователях, поэтому первый шаг к противодействию киберугрозам — повышение цифровой грамотности, дополняет старший аналитик исследовательской группы Positive Technologies Дарья Лаврова. Фишинговые письма и сообщения, как и аудио / видеозвонки с использованием дипфейков имеют характерные маркеры. Это попытки надавить на эмоции жертвы (напугать денежными потерями / уголовным преследованием, вызвать азарт, пообещав крупный выигрыш или ценный подарок и так далее), спровоцировать ее на быстрые и необдуманные действия, сопровождаемые, как правило, обезличенным текстом, вложениями и QR-кодами.

— Компаниям необходимо не только проводить регулярное обучение сотрудников, но и совершенствовать свои механизмы безопасности, в частности, за счет использования более эффективного ИИ, способного в режиме автопилота обнаруживать и предотвращать атаки. Эффективность такого ИИ должна базироваться на верифицированных гипотезах о будущих киберугрозах, а не на запоздалой реакции на уже известные и широко используемые ИИ-практики киберпреступников, — заключает эксперт.

Читайте также
Прямой эфир