Перейти к основному содержанию
Прямой эфир

«Необходимо договориться о правилах применения искусственного интеллекта»

Первый зампред правления Сбербанка Александр Ведяхин — об этических сложностях, грандиозных возможностях и рисках использования машинного разума
0
Озвучить текст
Выделить главное
вкл
выкл

Искусственный интеллект развивается всё более стремительными темпами. Но на пути от слабого машинного разума, умеющего решать крайне ограниченный круг задач, к сильному, который будет обладать столь же широким набором компетенций, что и человек, возникает множество препятствий. И главные сложности лежат не в технической, а в этической плоскости: как перевести на машинный язык вопросы, по которым у людей нет единого мнения, опасен ли ИИ, если он подвержен тем же гендерным или расовым предрассудкам? О возможностях ИИ и рисках его применения «Известия» побеседовали с первым заместителем председателя правления Сбербанка Александром Ведяхиным.

— Чего вы больше всего боитесь, когда речь заходит об искусственном интеллекте?

— Думаю, «бояться» не самое подходящее слово. Искусственный интеллект на самом деле про счастье — он создает более интересные высокооплачиваемые рабочие места, в которых больше пользы для всего общества, освобождает людей от рутины, позволяет им больше заниматься творчеством. Он может придать новый импульс мировой экономике и помочь нам справиться с самыми сложными вызовами —- поиском лекарств от смертельных заболеваний, предупреждением катастроф, построением более справедливого общества.

Но чтобы эти мечты осуществились, нужен четкий свод правил его разработки и эксплуатации. По поводу этих правил человечество должно достичь консенсуса, который обеспечит баланс между развитием ИИ и предотвращением новых вызовов и угроз, которые в себе несет такое развитие. Так вот, раз уж мы заговорили об опасениях, я опасаюсь, что слишком медленная выработка этих правил затормозит развитие ИИ. Потому что одно дело — разработать технологию и протестировать ее в лаборатории или экспериментальной «песочнице», а другое дело — масштабировать ее в реальный мир. Сегодня мы зачастую имеем ситуацию, когда технологии уже несколько лет как есть, а их регулирования до сих пор нет. Но его нет не потому, что кто-то недорабатывает или саботирует, а потому, что это терра инкогнита: человечество еще не решало аналогичной по сложности задачи.

— Любое регулирование вводится для минимизации рисков. Какие это риски в случае ИИ?

Как и к любой новой технологии, доверие к ИИ только формируется, и важно, с одной стороны, успокоить людей, показать им грандиозные возможности, которые он предоставляет, а с другой — обратить внимание на риски, которые он несет. Какие сопутствующие проблемы развития ИИ сейчас наиболее активно обсуждаются?

Первый — возможный тотальный выход систем из-под контроля. Это, пожалуй, самый популярный алармистский сценарий в духе «Терминатора», в большей степени уходящий корнями в массовую культуру. Это еще большой вопрос — достижим ли такой уровень развития ИИ? На мой взгляд, если и достижим, то в очень далеком будущем. Второй — непонимание и непредсказуемость действий алгоритмов. Пока некоторые модели ИИ представляют собой «черный ящик»: в такую модель загружаются исходные данные, она дает ответ, но почему машина приняла именно это решение, чем она руководствовалась — мы не всегда знаем. Безусловно, это неправильно. Люди должны понимать, как действуют их изобретения.

Третий — недостаточная устойчивость и надежность систем принятия решений. Пока применение систем ИИ в основном ограничено сферами, где его использование не представляет угрозы для жизни и здоровья. Проще говоря, если рекомендательная система посоветует нам неинтересный фильм, мы это как-нибудь переживем. Вот если нейросеть поставит неверный диагноз или самоуправляемый автомобиль неверно интерпретирует дорожную обстановку, это опасно. И мы должны исключить такую возможность.

Четвертый — использование ИИ для манипуляции общественным мнением. Все мы сталкивались с дипфейками, когда можно подделать любое видео, голос и тем более фотографию. Если они используются ради мошенничества или нанесения ущерба репутации людей, это недопустимо и с этим надо бороться. Но дипфейк, как и любую технологию, можно использовать и во благо. Можно доснять фильм, если актер по каким-то причинам не может продолжить съёмки. Можно, как это сделали мы в «Сбере», вернуть на экраны всенародно любимого молодого Леонида Куравлёва, воссоздав не только его внешность в фильме «Иван Васильевич меняет профессию», но и голос.

Пятый — дискриминация людей по социальным, демографическим или расовым признакам. Здесь всё предельно просто: машина обучается на выборках данных, которые отбирают люди. Если эти выборки недостаточно очищены, если, предположим, нейросеть питается информацией о том, что в какой-то компании женщины никогда не занимали руководящих должностей, она не порекомендует нанять на подобную должность женщину даже при соответствии всем остальным критериям. Это, конечно же, ошибка.

— И как же эти риски купировать?

На уровне отдельных компаний и стран уже предпринимаются попытки сформулировать общие этические принципы разработки и применения ИИ. Такие документы есть у Google, Microsoft и других технологических гигантов. В этом году подобные принципы сформулировали и в Сбере.

Во-первых, контролируемость и управляемость систем ИИ. Мы учитываем возможные риски, связанные с безопасностью технологий ИИ, не допускаем их выхода из-под контроля или причинения системой вреда человеку. Во-вторых, прозрачность и предсказуемость функционирования технологий ИИ. Мы применяем его с соблюдением законодательства, в том числе требований конфиденциальности, и с уважением к частной жизни человека и коммерческой тайне.

В-третьих, стабильность и надежность систем ИИ, и, в-четвёртых, его ответственное применение. Он должен использоваться для улучшения клиентского опыта, мы принимаем во внимание все опасения, которые возникают в связи с его использованием. В-пятых, непредвзятый ИИ, его технологии применяются «Сбером» на равных для всех условиях. Мы стремимся к тому, чтобы они приносили пользу. У нас есть целый ряд разработок для самых разных сфер жизни — от электронных помощников врача и моделей, предсказывающих наводнения и лесные пожары, до систем, которые помогают историкам распознавать рукописные тексты времен Петра I.

— Как вы намерены реализовать эти принципы и кто это будет контролировать?

В рамках ESG-комитета «Сбера» создана специальная постоянно действующая рабочая группа по этике ИИ. В ее рамках мы планируем рассматривать самые актуальные вопросы создания, внедрения и использования технологий ИИ. Обязательно будем ориентироваться на запросы наших клиентов, контрагентов, сотрудников, регулятора. По отдельным вопросам планируем привлекать внешних российских и международных экспертов в сфере ИИ высокого уровня.

В нашей стране уже сформированы первые, базовые документы, которые определяют направления развития технологий ИИ. В 2019 году утверждена указом президента РФ и уже исполняется Национальная стратегия развития ИИ на период до 2030 года. А в 2020-м правительство утвердило Концепцию развития регулирования в сфере технологий ИИ и робототехники. Кроме того, был создан Альянс в сфере искусственного интеллекта, в который входят «Сбер», «Газпром нефть», Яндекс, Mail.ru Group, МТС и РФПИ. Мы проводим целый ряд образовательных мероприятий по обмену опытом для экспертов, студентов и школьников. Главное из них — крупнейшая в мире профильная международная конференция по ИИ и анализу данных AI Journey. На площадке Альянса обсуждаются и вопросы этики ИИ.

Регулирование ИИ — это еще и важный международный вопрос, как, например, борьба с изменением климата или контроль за использованием ядерной энергии. Сейчас на повестке — попытка консолидации позиций стран мира по регулированию ИИ и даже выработка новой этики. Работа в этом направлении активно ведется на площадках ЮНЕСКО и Совета Европы. Например, в Совете Европы даже создан Специальный комитет по вопросам ИИ. Сотрудники «Сбера »активно привлекались к его работе в качестве экспертов, а сейчас возглавляют одну из рабочих групп.

При этом нам важно не затормозить развитие технологий, это в буквальном смысле жизненно необходимо. Как я уже говорил, ИИ способен спасать жизни, как это делают, например, системы анализа медицинских изображений, распознающие COVID-19 или онкологические заболевания. ИИ будет таким, каким его запроектируют люди. Это не какая-то отдельная сущность с самосознанием — это продолжение нас самих, такая же технология, как электричество или двигатель внутреннего сгорания, только намного более мощная и всеобъемлющая. И возможный вектор цивилизованного развития этой технологии — договориться об общих принципах ее использования и алгоритмизировать этические нормы, которые сделают ИИ контролируемым, интерпретируемым, стабильным, надежным и честным.

Прямой эфир