Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Путин отметил работу задействованных в зоне СВО российских следователей
Мир
Президент США сообщил об аресте виновника утечек по Венесуэле
Мир
Трамп отказался прямо ответить на вопрос о военных действиях США против Ирана
Мир
РФ учтет планы ЕС по созданию европейской армии в военном планировании
Мир
Россия направит в Бразилию делегацию для работы комиссии по сотрудничеству
Общество
Актеру Колганову продлили арест по делу о распространении детской порнографии
Мир
Трамп заявил о прекращении убийств в Иране
Общество
Минобрнауки изменило правила поступления в вузы в 2026 году
Мир
Глава МИД Дании заявил о неизменности позиции США по Гренландии
Мир
Белый дом опубликовал картинку с Гренландией на распутье
Мир
ЕС потратил на Украину почти €200 млрд и выделит еще €90 млрд в 2026-2027 годах
Мир
Лидеры парламента ЕС призвали определить конкретную поддержку для Гренландии
Мир
Медведев выразил уверенность в передаче Европой Гренландии Соединенным Штатам
Происшествия
Футболист и воспитанник ЦСКА Лайонел найден мертвым в Подмосковье
Армия
Силы ПВО уничтожили 39 украинских дронов над регионами России
Мир
Зеленский заявил о введении ЧС в энергетике на Украине
Мир
Захарова указала на осуждение Россией украинских атак на суда в Черном море

Эксперт назвал способы найти ответственных за ошибки искусственного интеллекта

Турубар: ИИ-системы нужно сертифицировать по аналогии с авиацией или медициной
0
EN
Фото: TASS/Axel Heimken
Озвучить текст
Выделить главное
Вкл
Выкл

С развитием искусственного интеллекта вопрос ответственности за его ошибки становится всё более актуальным. Директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект» Николай Турубар 4 июня рассказал «Известиям» о сложностях определения виновных в случаях, когда алгоритмы принимают ошибочные решения с серьезными последствиями.

Эксперт привел несколько громких примеров, когда ошибки ИИ приводили к трагическим последствиям: от рекомендаций опасных схем лечения онкобольным системой Watson for Oncology до самоубийства подростка после общения с чат-ботом.

«На первый взгляд, ответ на вопрос, кто будет отвечать, если ИИ ошибется, очевиден: машина — не субъект и ответственности не несет. У нее нет совести, намерений, понимания добра и зла. Это алгоритм, который действует в рамках заданных инструкций. Значит, ответственность — на людях. Но на ком именно: разработчиках, компаниях или пользователях?» — задается вопросом Турубар.

По словам специалиста, в некоторых случаях определить виновного относительно просто — например, когда ошибка связана с некорректным обучением модели. Он напомнил о судебном иске против Equifax из-за заниженных кредитных рейтингов и дискриминационной системе найма Amazon. Однако часто сама природа работы нейросетей делает невозможным понимание логики принятия решений, что создает правовой вакуум.

«Мы создаем «черные ящики», но не готовы отвечать за их работу, — констатирует эксперт. — Как оспорить отказ в кредите, если сотрудник банка может сказать только «так решил ИИ»? Кто ответит, если робомобиль собьет человека?»

Турубар считает, что решение проблемы лежит в двух плоскостях: технологической и регуляторной. С одной стороны, необходимо развивать объяснимый ИИ (Explainable AI), технологии которого уже существуют. С другой — требуется создание строгих этических норм и сертификации ИИ-систем по аналогии с авиацией или медициной.

Эксперт положительно оценивает инициативы вроде европейского регламента AI Act или российского Кодекса этики для ИИ, подписанного ведущими организациями. По его мнению, такие меры могут стать основой для формирования ответственного подхода к разработке и внедрению искусственного интеллекта, пока технологии не достигли уровня, когда последствия ошибок станут необратимыми.

Ранее, 6 марта, сообщалось, что большинство опрошенных креативных специалистов активно используют нейросети в своей работе. При этом 43% респондентов прибегают к ним на регулярной основе, следует из результатов исследования Агентства креативных индустрий Москвы и компании MTS AI.

Читайте также
Прямой эфир