Перейти к основному содержанию
Реклама
Прямой эфир
Армия
Армия России освободила населенный пункт Братское в Днепропетровской области
Общество
В Госдуме анонсировали инициативы по совершенствованию миграционной политики
Общество
Мишустин поручил расширить систему мотивации научных работников
Армия
Силы ПВО за ночь уничтожили 66 БПЛА ВСУ над регионами России
Общество
Сотрудники МЧС спасли 42 человека во время пожара в Приморье
Общество
В Роскачестве предупредили о большой доле фальсификата среди меда и оливкового масла
Общество
МВД сообщило о схемах мошенников с поддельными приложениями для банков
Мир
WSJ сообщила о желании США установить контроль над нефтью Венесуэлы и сбить цены
Мир
Politico узнала о подготовке ЕС плана на случай операции США в Гренландии
Мир
Трамп допустил контроль США над Венесуэлой дольше одного года
Армия
Российские войска поразили работающие в интересах ВСУ энергообъекты и порты
Общество
В Госдуме предложили повысить надбавку к пенсии на уход до уровня МРОТ
Мир
В Китае отвергли обвинения США в организации хакерских атак
Мир
Трамп поручил вывести США из центра науки и технологий на Украине
Происшествия
Обломки БПЛА упали на крышу частного дома в Краснодарском крае
Мир
В результате атаки США на Венесуэлу погибли 100 человек
Мир
Вэнс назвал Гренландию ключевым элементом системы ПРО США

«Необходимо договориться о правилах применения искусственного интеллекта»

Первый зампред правления Сбербанка Александр Ведяхин — об этических сложностях, грандиозных возможностях и рисках использования машинного разума
0
Фото: ТАСС/Ведомости/Евгений Разумный
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект развивается всё более стремительными темпами. Но на пути от слабого машинного разума, умеющего решать крайне ограниченный круг задач, к сильному, который будет обладать столь же широким набором компетенций, что и человек, возникает множество препятствий. И главные сложности лежат не в технической, а в этической плоскости: как перевести на машинный язык вопросы, по которым у людей нет единого мнения, опасен ли ИИ, если он подвержен тем же гендерным или расовым предрассудкам? О возможностях ИИ и рисках его применения «Известия» побеседовали с первым заместителем председателя правления Сбербанка Александром Ведяхиным.

— Чего вы больше всего боитесь, когда речь заходит об искусственном интеллекте?

— Думаю, «бояться» не самое подходящее слово. Искусственный интеллект на самом деле про счастье — он создает более интересные высокооплачиваемые рабочие места, в которых больше пользы для всего общества, освобождает людей от рутины, позволяет им больше заниматься творчеством. Он может придать новый импульс мировой экономике и помочь нам справиться с самыми сложными вызовами —- поиском лекарств от смертельных заболеваний, предупреждением катастроф, построением более справедливого общества.

Но чтобы эти мечты осуществились, нужен четкий свод правил его разработки и эксплуатации. По поводу этих правил человечество должно достичь консенсуса, который обеспечит баланс между развитием ИИ и предотвращением новых вызовов и угроз, которые в себе несет такое развитие. Так вот, раз уж мы заговорили об опасениях, я опасаюсь, что слишком медленная выработка этих правил затормозит развитие ИИ. Потому что одно дело — разработать технологию и протестировать ее в лаборатории или экспериментальной «песочнице», а другое дело — масштабировать ее в реальный мир. Сегодня мы зачастую имеем ситуацию, когда технологии уже несколько лет как есть, а их регулирования до сих пор нет. Но его нет не потому, что кто-то недорабатывает или саботирует, а потому, что это терра инкогнита: человечество еще не решало аналогичной по сложности задачи.

— Любое регулирование вводится для минимизации рисков. Какие это риски в случае ИИ?

Как и к любой новой технологии, доверие к ИИ только формируется, и важно, с одной стороны, успокоить людей, показать им грандиозные возможности, которые он предоставляет, а с другой — обратить внимание на риски, которые он несет. Какие сопутствующие проблемы развития ИИ сейчас наиболее активно обсуждаются?

Первый — возможный тотальный выход систем из-под контроля. Это, пожалуй, самый популярный алармистский сценарий в духе «Терминатора», в большей степени уходящий корнями в массовую культуру. Это еще большой вопрос — достижим ли такой уровень развития ИИ? На мой взгляд, если и достижим, то в очень далеком будущем. Второй — непонимание и непредсказуемость действий алгоритмов. Пока некоторые модели ИИ представляют собой «черный ящик»: в такую модель загружаются исходные данные, она дает ответ, но почему машина приняла именно это решение, чем она руководствовалась — мы не всегда знаем. Безусловно, это неправильно. Люди должны понимать, как действуют их изобретения.

Третий — недостаточная устойчивость и надежность систем принятия решений. Пока применение систем ИИ в основном ограничено сферами, где его использование не представляет угрозы для жизни и здоровья. Проще говоря, если рекомендательная система посоветует нам неинтересный фильм, мы это как-нибудь переживем. Вот если нейросеть поставит неверный диагноз или самоуправляемый автомобиль неверно интерпретирует дорожную обстановку, это опасно. И мы должны исключить такую возможность.

Четвертый — использование ИИ для манипуляции общественным мнением. Все мы сталкивались с дипфейками, когда можно подделать любое видео, голос и тем более фотографию. Если они используются ради мошенничества или нанесения ущерба репутации людей, это недопустимо и с этим надо бороться. Но дипфейк, как и любую технологию, можно использовать и во благо. Можно доснять фильм, если актер по каким-то причинам не может продолжить съёмки. Можно, как это сделали мы в «Сбере», вернуть на экраны всенародно любимого молодого Леонида Куравлёва, воссоздав не только его внешность в фильме «Иван Васильевич меняет профессию», но и голос.

Пятый — дискриминация людей по социальным, демографическим или расовым признакам. Здесь всё предельно просто: машина обучается на выборках данных, которые отбирают люди. Если эти выборки недостаточно очищены, если, предположим, нейросеть питается информацией о том, что в какой-то компании женщины никогда не занимали руководящих должностей, она не порекомендует нанять на подобную должность женщину даже при соответствии всем остальным критериям. Это, конечно же, ошибка.

— И как же эти риски купировать?

На уровне отдельных компаний и стран уже предпринимаются попытки сформулировать общие этические принципы разработки и применения ИИ. Такие документы есть у Google, Microsoft и других технологических гигантов. В этом году подобные принципы сформулировали и в Сбере.

Во-первых, контролируемость и управляемость систем ИИ. Мы учитываем возможные риски, связанные с безопасностью технологий ИИ, не допускаем их выхода из-под контроля или причинения системой вреда человеку. Во-вторых, прозрачность и предсказуемость функционирования технологий ИИ. Мы применяем его с соблюдением законодательства, в том числе требований конфиденциальности, и с уважением к частной жизни человека и коммерческой тайне.

В-третьих, стабильность и надежность систем ИИ, и, в-четвёртых, его ответственное применение. Он должен использоваться для улучшения клиентского опыта, мы принимаем во внимание все опасения, которые возникают в связи с его использованием. В-пятых, непредвзятый ИИ, его технологии применяются «Сбером» на равных для всех условиях. Мы стремимся к тому, чтобы они приносили пользу. У нас есть целый ряд разработок для самых разных сфер жизни — от электронных помощников врача и моделей, предсказывающих наводнения и лесные пожары, до систем, которые помогают историкам распознавать рукописные тексты времен Петра I.

— Как вы намерены реализовать эти принципы и кто это будет контролировать?

В рамках ESG-комитета «Сбера» создана специальная постоянно действующая рабочая группа по этике ИИ. В ее рамках мы планируем рассматривать самые актуальные вопросы создания, внедрения и использования технологий ИИ. Обязательно будем ориентироваться на запросы наших клиентов, контрагентов, сотрудников, регулятора. По отдельным вопросам планируем привлекать внешних российских и международных экспертов в сфере ИИ высокого уровня.

В нашей стране уже сформированы первые, базовые документы, которые определяют направления развития технологий ИИ. В 2019 году утверждена указом президента РФ и уже исполняется Национальная стратегия развития ИИ на период до 2030 года. А в 2020-м правительство утвердило Концепцию развития регулирования в сфере технологий ИИ и робототехники. Кроме того, был создан Альянс в сфере искусственного интеллекта, в который входят «Сбер», «Газпром нефть», Яндекс, Mail.ru Group, МТС и РФПИ. Мы проводим целый ряд образовательных мероприятий по обмену опытом для экспертов, студентов и школьников. Главное из них — крупнейшая в мире профильная международная конференция по ИИ и анализу данных AI Journey. На площадке Альянса обсуждаются и вопросы этики ИИ.

Регулирование ИИ — это еще и важный международный вопрос, как, например, борьба с изменением климата или контроль за использованием ядерной энергии. Сейчас на повестке — попытка консолидации позиций стран мира по регулированию ИИ и даже выработка новой этики. Работа в этом направлении активно ведется на площадках ЮНЕСКО и Совета Европы. Например, в Совете Европы даже создан Специальный комитет по вопросам ИИ. Сотрудники «Сбера »активно привлекались к его работе в качестве экспертов, а сейчас возглавляют одну из рабочих групп.

При этом нам важно не затормозить развитие технологий, это в буквальном смысле жизненно необходимо. Как я уже говорил, ИИ способен спасать жизни, как это делают, например, системы анализа медицинских изображений, распознающие COVID-19 или онкологические заболевания. ИИ будет таким, каким его запроектируют люди. Это не какая-то отдельная сущность с самосознанием — это продолжение нас самих, такая же технология, как электричество или двигатель внутреннего сгорания, только намного более мощная и всеобъемлющая. И возможный вектор цивилизованного развития этой технологии — договориться об общих принципах ее использования и алгоритмизировать этические нормы, которые сделают ИИ контролируемым, интерпретируемым, стабильным, надежным и честным.

Читайте также
Прямой эфир