Перейти к основному содержанию
Прямой эфир

Пентагон принял этические принципы для искусственного интеллекта

0
Фото: commons.wikimedia.org/David B. Gleason
Озвучить текст
Выделить главное
вкл
выкл

Министерство обороны США официально приняло этические принципы применения искусственного интеллекта в вооружениях. Об этом в понедельник, 24 февраля, сообщила пресс-служба американского военного ведомства.

Документ разрабатывался экспертным центром Пентагона, который кроме военных и чиновников привлекал к работе технических экспертов, передает «РИА Новости».

Отныне минобороны США будет руководствоваться пятью основными принципами. Отмечается, что искусственный интеллект должен быть «ответственным, соразмерным, понятным, надежным и управляемым».

Принцип ответственности предполагает «должные уровни здравого смысла и осторожности» при разработке боевых машин. Под соразмерностью в Пентагоне понимают «необходимые шаги для минимизации неумышленной предвзятости» боевых машин. Под понятным искусственным интеллектом подразумевается, что военные будут обеспечивать прозрачность процедур и документации при применении технологии.

Надежным искусственный интеллект должен стать, если ему придать «хорошо очерченные функции», а также постоянно испытывать в ходе разработки и эксплуатации. Управляемостью военные США назвали принцип, когда у человека в любом случае сохранится возможность отключить боевые машины, которые «продемонстрируют незапланированное поведение».

Ранее, 19 февраля, глава Еврокомиссии Урсула фон дер Ляйен заявила, что Евросоюз будет вкладывать по €20 млрд каждый год в развитие искусственного интеллекта по меньшей мере до 2030 года. Она подчеркнула, что цель данной стратегии — «достижение ЕС мирового лидерства» в создании искусственного интеллекта.

Прямой эфир