Российские ученые разрабатывают алгоритм для поиска манипуляций, который можно было бы использовать для автоматической проверки контента. Для этого специалисты РГГУ намерены определить приемы, которые чаще всего используют в текстах, мемах и видеоклипах для воздействия на общественное мнение. Предметом анализа станут наиболее цитируемые материалы в интернете. По словам экспертов, если на основе алгоритма удастся обучить искусственный интеллект распознавать манипуляции и скрытый смысл сообщений, это позволит противодействовать информационным угрозам.
Прием при нем
Лингвисты Российского государственного гуманитарного университета намерены создать алгоритм для поиска манипулятивного контента. Ученые исследуют так называемые когнитивные модели, которые лежат в основе призванных воздействовать на сознание людей сообщений. Например, это метафоры, когда более абстрактное понятие описывается через более конкретное. Используя эту схему, можно любому факту придать заданную эмоциональную окраску. Проект реализуется при поддержке Российского научного фонда.
— Когнитивная модель существует в голове любого носителя языка. Это схемы, но они реализуются через конкретные слова, — пояснила профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина.
Другим видом манипуляции может выступать использование автором слова с несколькими значениями, смыслами, чтобы запутать читателя. К хитростям такого рода относится употребление английского apparent, которое может иметь два фактически противоположных значения: «очевидный» и «кажущийся». Особое влияние на восприятие информации читателем могут оказывать эвфемизмы, когда отрицательно окрашенное слово заменяется другим, более нейтральным или положительно окрашенным. Например, в американской культуре в публичной речи считается неуместным использовать слово «слепой», вместо него принято говорить «слабовидящий».
Авторы исследования планируют определить приемы, которые чаще всего используют для воздействия на читателя. В ходе работы ученые будут оценивать и сравнивать между собой материалы СМИ. После этого на основе анализа самых заметных и цитируемых интернет-текстов будет создан банк манипулятивных высказываний, к которым отнесут все сообщения, не соответствующие реальным фактам. Кроме текстов специалисты будут изучать и визуальный контент: мемы, видеоклипы, посты в соцсетях. Также в рамках научной работы компьютерными методами будет изучен банк эмоционально окрашенных текстов, состоящий из 3 млн слов.
— Мы начнем с анализа текстов, построим алгоритм идентификации манипулятивных высказываний. В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций, — сказала Вера Заботкина.
Избыток смыслов
Сегодня задача понимания содержания текста стала глобальным вызовом для компьютерной лингвистики и вообще для развития искусственного интеллекта, отметил доцент кафедры массовых коммуникаций РУДН Сергей Водопетов. По его словам, работа ученых РГГУ наверняка будет востребована теми специалистами, которые смогут взять научную теорию и обучить компьютер ее использованию.
— Пока мне сложно представить сферу применения подобного ПО, но я бы с любопытством посмотрел на рабочий прототип. Идея хорошая, но важно, чтобы искусственный интеллект работал без сбоев, — сказал заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.
Если в глобальном потоке контента человечество научится выявлять скрытый смысл, это позволит противодействовать информационным угрозам, привел пример использования разработки Сергей Водопетов.
«Известия» обратились в Минцифры с просьбой прокомментировать разработку программы, способной выявлять в контенте скрытую манипуляцию. В министерстве рекомендовали обратиться в Роскомнадзор. Там вопросы переадресовали в Главный радиочастотный центр, где оперативно не ответили на запрос.
Частично научить машину выявлять те или иные манипуляции возможно, но эта задача всегда будет упираться в ограничения искусственного интеллекта, считает заведующая кафедрой языков массовых коммуникаций УрФУ Елена Соболева. Естественный язык всегда многозначен, одно и то же слово может нести разные смыслы, пояснила она. До сих пор нет программ, которые могли бы распознавать разные значения одного слова, отметила эксперт. Человек многое понимает исходя из контекста и сочетаемости слов, поэтому вряд ли в ближайшем будущем будет создано ПО, точно распознающее манипуляции, объяснила специалист.