Перейти к основному содержанию
Прямой эфир
Озвучить текст
Выделить главное
вкл
выкл

Сегодня многие решения принимаются без участия человека системами автоматизированного принятия решений (АПР). Для работы они собирают информацию из разнородных источников — социальных сетей, государственных баз данных или статистики операторов связи и других. В основе таких алгоритмов нередко лежат технологии искусственного интеллекта.

Системы АПР активно применяются во время устройства сотрудников на работу, их увольнении, получении кредита или страховки, а также вынесении штрафов в автоматическом режиме. К слову, в США на долю алгоритмов и систем АПР приходится почти 90% всего объема купли-продажи акций на биржах (данные доклада банка JP Morgan). А совсем недавно алгоритмы Amazon по ошибке уволили 63-летнего ветерана армии Стивена Нормандина, который почти четыре года доставлял посылки в качестве контрактного водителя.

Со стороны российского бизнеса также значительно вырос интерес к использованию подобных алгоритмов. Так, согласно отчету Microsoft, 30% российских руководителей активно внедряют программы искусственного интеллекта в бизнес-процессы. Например, ВТБ и МКБ используют системы АПР при принятии решений по кредитам, компания FscoreLab научила нейросеть вычислять потенциально проблемных заемщиков по фото в паспорте и многое другое.

Применение систем АПР помогает организациям сократить временные и финансовые издержки, связанные с принятием решений, но вместе с этим их использование несет ряд рисков, которые регуляторы и разработчики алгоритмов должны предусмотреть еще на этапах создания и внедрения. В частности, это риски принятия необъективных и дискриминирующих решений. Как следствие, это может негативно отразиться на общем уровне доверия к технологиям.

Пока что в России сохраняется благосклонное отношение к искусственному интеллекту: почти половина россиян (48%) доверяет ему, согласно данным ВЦИОМа. В РФ уже сейчас становится важным вопрос формирования адекватного правового регулирования систем АПР, ведь совсем недавно случились прецеденты, способные подорвать доверие россиян к ИИ. Так, весной 2020 года подобного рода алгоритмы применялись в Москве и области для привлечения к ответственности людей за нарушение режимов самоизоляции и карантина. Например, алгоритмы по ошибке выписали штрафы женщине с ограниченными возможностями и гражданам, чья квартира находилась на границе столицы и области только за то, что те вышли на балкон.

Вопросы регулирования отношений, связанных с использованием систем АПР, стали приоритетными для большинства стран — Великобритании, США, Европы и других. При этом, на мой взгляд, наибольших успехов в решении этого вопроса достигла Канада, которая приняла специальный закон, регламентирующий порядок использования АПР — Директиву о принятии решений в автоматизированном порядке. Документ вступил в силу весной 2020 года.

В основе закона лежит риск-ориентированный подход, предусматривающий классификацию таких систем в зависимости от степени воздействия на права граждан, в том числе на их здоровье и благополучие. Директива предусматривает конкретные меры, позволяющие снизить риски использования систем АПР. Например, уже есть ряд обязательных требований к ним: размещение уведомлений о применении системы АПР на сайте, регулярное проведение внешней независимой оценки системы. Если же ее использование сопряжено с высокими рисками, то человек обязательно должен участвовать в принятии решения либо сам выносить окончательный вердикт.

На мой взгляд, при разработке национального регулирования необходимо обратиться к опыту других стран. Одной из важнейших мер, которая должна обеспечить прозрачность функционирования таких систем, станет возможность проведения ее аудита. Поэтому в России по примеру Канады целесообразно рассмотреть вопрос о введении механизмов независимой экспертной оценки на этапе закупки и внедрения таких систем.

Крайне важно создать эффективные механизмы обжалования решений госорганов, которые были приняты в автоматизированном порядке. Такие механизмы должны быть максимально «дружелюбными» для граждан и организаций, а также оперативными и обеспечивающими участие компетентных лиц, рассматривающих жалобу.

Кроме того, в сферах, где использование алгоритмов несет высокие риски и существенные негативные последствия для граждан и организаций, необходимо протестировать системы до их массового внедрения. Например, это относится к сфере правосудия. Так, применение АПР в судебных процессах должно применяться только для определенных категорий споров и пройти обязательное тестирование в «цифровых песочницах».

Опрос специального комитета по искусственному интеллекту Совета Европы показал, что расширение использования технологий искусственного интеллекта требует ужесточения регулирования на государственном уровне. Мы рекомендуем на первых этапах распространить регулирование АПР на государственные информационные системы, так как именно в них принимаются наиболее чувствительные для граждан решения. Впоследствии доказавшие свою эффективность подходы можно распространить и на частный сектор. До этого момента коммерческие операторы могут использовать подобные системы в рамках саморегулирования и существующих норм законодательства, их можно адаптировать с помощью разъяснений от регуляторов.

Александр Журавлев — глава комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России

Позиция редакции может не совпадать с мнением автора

Читайте также
Прямой эфир