Перейти к основному содержанию
Реклама
Прямой эфир
Армия
Путин поздравил два российских полка с присвоением наименований «гвардейские»
Мир
Захарова указала на непонимание Каллас сути свободы
Общество
Следствие завершило представление доказательств по делу о теракте в «Крокусе»
Мир
СМИ узнали о готовности Киева отказаться от территорий при одном условии
Общество
В Петербурге рассмотрели более 50 квартирных споров по «схеме Долиной»
Общество
Посол РФ назвал отсутствие страховки главной ошибкой россиян в Таиланде
Мир
В Финляндии допустили создание особой экономической зоны на границе с Россией
Общество
В Донецке открыли бюст погибшему в ходе СВО сыну замглавы ЦРУ Майклу Глоссу
Культура
Ольга Любимова рассказала о моновыставке Марка Шагала в Пушкинском музее
Мир
Союз биатлонистов подал иск в CAS за отстранение спортсменов из России
Авто
Глава АвтоВАЗа заявил о резком снижении цен на авто из Китая в 2025 году
Мир
СБУ задержала судно под флагом африканской страны в Одессе
Армия
Медведев провел совещание по доукомплектованию ВС РФ военными по контракту
Мир
Число погибших в результате обрушения двух зданий в Марокко выросло до 22
Общество
В Москве задержали 12 членов легализовавшей свыше 53 тыс. мигрантов группы
Спорт
Талисманом сборной России станет олимпийский мишка
Спорт
Дегтярев заявил о возможном лишении Польши права на международные соревнования

Безграничные кибервозможности

Cоветник министра обороны РФ Андрей Ильницкий — о рисках и возможностях искусственного интеллекта
0
Озвучить текст
Выделить главное
Вкл
Выкл

Успехи технологий машинного интеллекта и искусственных нейросетей открывают путь к созданию сверхмощной системы, которую принято называть искусственным интеллектом (ИИ). Ведущие мировые державы, в том числе и Россия, начали реализацию национальных стратегий развития ИИ. Но, как и любая технология двойного назначения, ИИ несет в себе не только выгоды, но и риски. Причем риски общепланетарного масштаба, особенно если произойдет монополизация ключевых технологий в одной из держав, если ИИ станет оружием психологической и информационной войны или кибервойны.

«Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны: тот станет властелином мира», — заявил президент Владимир Путин на совещании по вопросам развития технологий ИИ.

Увы, но реалии таковы — современный мир объективно живет в состоянии гибридной войны, которая ведется за гегемонию, за ресурсы и за сохранение контроля над финансами, торговлей и технологиями с одной стороны и за многополярность и собственное будущее с другой.

В этой ситуации опора на ядерное сдерживание — спасение. На сегодняшний день, а это признано и нашими оппонентами, Россия в состоянии нанести неприемлемый для них ущерб, потому вероятность прямого «горячего» конфликта маловероятна. Но по этой же причине, основными «средствами поражения» для ослабления противника становятся торможение его технологического развития, экономические санкции, манипулирование информацией, кибервоздействие, а также создание разномасштабной нестабильности.

И одновременно развитие собственных технологий искусственного интеллекта и использование его в целях нацбезопасности и обороны позволяет компенсировать мощь противника на стратегических направлениях. Именно поэтому считается, что ИИ — это третья революционная инновация в военном деле после изобретения пороха и ядерного оружия.

США стремятся занять лидирующие позиции в исследовании ИИ и применении его для разработки кибероружия и автономных видов вооружений, которые можно использовать как для наблюдения за противником, так и для нападения. Активно работает в этом направлении и Китай.

Ряд экспертов, бизнесменов и представителей IT-компаний призывают запретить разработку любых видов вооружений и автономных технологий, использующих ИИ, рассказывая о том, что он в конечном итоге уничтожит человечество.

На самом деле бояться «военного» ИИ пока не нужно. Принятие стратегических решений и команды высокого уровня по-прежнему останутся в ведении людей, а робототехникой и автономным оружием будут укомплектованы оперативно-тактические звенья.

Искусственный интеллект — это не только роботы и автоматизированные системы, это еще и кибер-оружие и кибер-шпионаж. Безграничные кибервозможности — это сейчас основные риски таких технологий.

Учитывая повсеместный переход на цифровизацию, масштабы последствий кибератак будут постоянно расти, как и бюджеты на киберзащиту и противодействие. «Охота за уязвимостями» будет настолько хорошо автоматизирована, что условная «третья мировая война» может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмет под контроль все основные системы жизнеобеспечения стран-соперников.

Очевидно, что в сфере государственного управления, как и в области обороны, решения на высшем уровне — это компетенция политического руководства страны. Внедрение ИИ в систему управления существенно расширит возможности оперативного сбора и анализа информации общественного характера, что позволит принимать социально-экономические решения и формировать определенные аспекты во внутренней политике.

Однако надо понимать: ИИ может выступить не только как советник и помощник, но и как «цифровой Мефистофель». ИИ, включенный в технологии госуправления, становится инструментом внутренней политики и может привести как к укреплению госвласти, так и к ее разрушению. Неготовность к внедрению или ошибки при создании ИИ таят в себе серьезные угрозы. И во многом сегодня опасность машинного интеллекта сосредоточена в области компетенций, а вовсе не в использовании ИИ в беспилотниках или в танках.

Очевидны риски в сфере информации и в киберпространстве. ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач, чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения. Инновационные достижения в области ИИ несут не только благо для экономик, но и риски спровоцировать реальный конфликт между странами. И в этом заключается серьезная опасность новых технологий.

И еще о рисках с сугубо российской спецификой. Объявленная в РФ программа тотальной цифровизации, местами, увы, очень напоминает гонку за бюджетами. Это порождает дополнительные риски нацбезопасности. Суть — в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных.

Необходима госэкспертиза как самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев.

Но самое главное, о чем сейчас должны задуматься российские политики, государство и бизнес, это о масштабах инвестиций в исследования, о стимулировании разработок в научных институтах РАН и исследовательских центрах, таких как, например «Курчатовский институт», в ведущих технических вузах, в частных корпорациях. Следует стимулировать и поддерживать взаимодействие промышленных предприятий с IT-компаниями и лабораториями, выстраивать международную кооперацию. И, конечно же, уделять максимальное внимание качественному школьному и высшему образованию.

Без всего этого Россия не сможет создать необходимые компетенции и укрепить свой потенциал в сфере кибербезопасности и национальной безопасности в целом.

Автор — советник министра обороны РФ, кандидат технических наук

В соавторстве с членом президиума Совета по внешней и оборонной промышленности Александром Лосевым

Мнение авторов может не совпадать с позицией редакции

Читайте также
Прямой эфир