Премьер-министр России Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ). По мнению экспертов, подобные дипфейки могут нести в себе огромные риски, в том числе для органов власти. Подробности о том, почему в России за борьбу с дипфейками решили взяться на государственном уровне, читайте в материале «Известий».
В рабочем порядке
Поручение Минцифры о проработке способов выявления дипфейков премьер-министр России Михаил Мишустин дал по итогам стратегической сессии, посвященной национальному проекту «Экономика данных». Соответствующее заявление появилось на официальном сайте правительства. «К 19 марта Минцифры предстоит обеспечить проработку мероприятий по выявлению недостоверных данных, в том числе генерируемых с использованием ИИ», — говорится в сообщении.
Стоит отметить, что президент России Владимир Путин также затрагивал тему искусственного интеллекта в ходе своей прямой линии и пресс-конференции 14 декабря. Глава государства отметил, что предотвратить развитие технологий ИИ невозможно, особенно, когда речь идет о так называемом «сверхинтеллекте». «А значит, нужно возглавить — во всяком случае, нужно сделать всё для того, чтобы мы могли быть одними из лидеров в этом направлении», — сказал Владимир Путин.
Как говорит в беседе с «Известиями» главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников, активность правительства в плане проработки способов выявления дипфейков вполне может быть связана с заявлениями президента России.
— Полагаю, что кто-то в правительстве сумел рассмотреть существенные риски для государства со стороны дипфейков. При этом высокие технологии в целом и ИИ в частности — это те области, где государство должно задавать тренд на развитие, — считает эксперт.
Игра на опережение
Новость о поручении, данном Минцифры Михаилом Мишустиным, свидетельствует о подготовке правительства России к запуску нового цикла федеральных проектов на 2025–2030 годы, говорит в беседе с «Известиями» доцент Департамента международного и публичного права Финансового университета при правительстве России, директор по продвижению правовой экосистемы «Инициатор.РФ» Игорь Семеновский.
— В частности, эти проекты касаются одной из наиболее критически важных сфер госрегулирования и развития — искусственного интеллекта, — отмечает эксперт.
По словам Семеновского, эти мероприятия ложатся в рамки проводимой в России с 2019 года Национальной стратегии развития искусственного интеллекта на период до 2030 года, а также служат переформатированию федерального проекта «Искусственный интеллект». При этом, напоминает Дмитрий Овчинников, сферу ИИ уже пытаются регулировать на государственном уровне в таких западных странах, как США и Великобритания, поэтому здесь можно говорить о мировом тренде.
Как отмечает Игорь Семеновский, сегодня создание и использование дипфейков стало одним из негативных эффектов и обратной стороной полезности ИИ, больших данных и других современных технологий. Основатель и СЕО Mirey Robotics, эксперт по ИИ Андрей Наташкин дополняет, что количество недостоверных данных, созданных с помощью технологий ИИ, растет ежедневно в геометрической прогрессии, а отличить дипфейк от настоящей информации крайне сложно.
— Слово «дипфейк» происходит от английского слова fake — подделка, фальшивка, обман. В более широком смысле то, с чем борется государство, — это мошенничество, клевета и ложь, которые являются как уголовно-правовым, так и гражданско-правовым нарушением, — отмечает Семеновский. При этом за подобные нарушения действующее законодательство предусматривает ответственность ввиду их тяжести. Именно поэтому на дипфейки, созданные при помощи ИИ, государство обратило пристальное внимание.
Стратегические риски
По словам Андрея Наташкина, борьба с дипфейками вышла на государственный уровень из-за больших рисков, связанных с отсутствием контроля в распространении подобной информации. С одной стороны, генерация контента с помощью нейросетей почти ничего не стоит, а с другой, скорость создания таких роликов, фотографий и текстов значительно превышает возможности стандартных редакций СМИ.
— Учитывая эти факторы, распространение дипфейков может стать национальной угрозой для государства, особенно в нынешней геополитической ситуации, — говорит собеседник «Известий».
Сегодня дипфейки представляют опасность как для органов власти, так и для общества в целом и отдельных граждан в частности, подчеркивает Семеновский. Использование технологий компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, а также интеллектуальной поддержки принятия решений может привести, в частности, к сбору огромного количества персональных данных, подмене настоящих информационных сообщений ложными, значительному материальному ущербу и ошибочным действиям должностных лиц на самом высоком уровне.
— При этом для систем управления атомной отраслью, авиационным сообщением, чрезвычайными ситуациями или военной инфраструктурой последствия таких действий могут оказаться непоправимыми, — отмечает Игорь Семеновский.
Механизмы защиты
По словам специалистов, опрошенных «Известиями», сегодня самый эффективный способ борьбы с дипфейками — это «скармливать» подобные видео специальным программам, которые будут анализировать пиксели, аномалии с мимикой, освещенность и многие другие тонкие моменты в видеоряде, которые человек не в состоянии уловить невооруженным взглядом. Именно эти мелочи в технической составляющей и могут выдавать дипфейки.
— В настоящий момент идентификация дипфейков — это сложная и многомерная задача, в которой традиционные методы анализа показывают крайне малую эффективность. Как это не удивительно, но бороться с фейками, которые генерируются с помощью машинного обучения, должен ИИ, — считает Андрей Наташкин.
При этом, как отмечает эксперт, для борьбы с дипфейками необходима разработка принципиально новых подходов и решений, демонстрирующих высокий уровень глубинного анализа. В то же время, говорит Игорь Семеновский, в случае, если речь, к примеру, идет об аудио- или видеозаписи конкретного человека, а также его изображении, в большинстве случаев можно обратиться к нему лично и верифицировать имеющиеся данные, протестировав какой-либо контент на достоверность.
Между тем, по словам Дмитрия Овчинникова, ключевой тренд в плане поддельного контента на ближайшее время — это упрощение алгоритмов, их совершенствование, снижение требований к аппаратной платформе, а также распространение доступности сервисов и программ по созданию дипфейков.
— Технологии подделки данных будут совершенствоваться, в том числе в русле защиты от их потенциальной проверки. Кроме того, количество дипфейков продолжит постепенно увеличиваться в связи с новым пользовательским охватом и развитием технологий, — соглашается Игорь Семеновский.
Андрей Наташкин заключает, что именно в свете этих тенденций Михаил Мишустин поручил проработать способы выявления дипфейков Минцифры — ведомству, которое координирует развитие нейросетей в России. И регулирование государством подобного контента со временем будет лишь усиливаться.