Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Лавров предупредил о риске ядерного инцидента в случае новых ударов США по Ирану
Мир
Песков заявил об интересе иностранцев к повестке дня Путина
Общество
Пожар на Ильском НПЗ в Краснодарском крае полностью потушили
Общество
В Москве объявлен оранжевый уровень опасности из-за сильного снега и метели
Здоровье
Эксперт предупредил об опасности кофе на морозе
Мир
Украинский чиновник объяснил происхождение $653 тыс. наследством бабушки
Общество
Минздрав рассказал о состоянии пострадавшего при нападении школьника в Прикамье
Общество
В Госдуме предупредили о штрафах за вывески на иностранном языке
Мир
Ячейку террористов выявили в исправительной колонии в Забайкальском крае
Мир
Politico узнала о планах США сократить миссии НАТО в других странах
Общество
Россиянам рассказали о рисках использования увлажнителей воздуха
Общество
В Пермском крае возбудили дело после нападения школьника на сверстника с ножом
Общество
Врач назвала блины опасными для некоторых категорий россиян
Общество
В Челябинске за грабеж и похищение предпринимателей осудили четверых членов ОПГ
Мир
Финалистку конкурса «Мисс Земля Филиппины» 2013 года убили на глазах у ее детей
Мир
Эксперт назвал цель захвата Киево-Печерской лавры
Мир
Обвиняемого в афере на 3,2 млрд рублей россиянина депортировали из Таиланда
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
Вкл
Выкл

Российские ученые разрабатывают алгоритм для поиска манипуляций, который можно было бы использовать для автоматической проверки контента. Для этого специалисты РГГУ намерены определить приемы, которые чаще всего используют в текстах, мемах и видеоклипах для воздействия на общественное мнение. Предметом анализа станут наиболее цитируемые материалы в интернете. По словам экспертов, если на основе алгоритма удастся обучить искусственный интеллект распознавать манипуляции и скрытый смысл сообщений, это позволит противодействовать информационным угрозам.

Прием при нем

Лингвисты Российского государственного гуманитарного университета намерены создать алгоритм для поиска манипулятивного контента. Ученые исследуют так называемые когнитивные модели, которые лежат в основе призванных воздействовать на сознание людей сообщений. Например, это метафоры, когда более абстрактное понятие описывается через более конкретное. Используя эту схему, можно любому факту придать заданную эмоциональную окраску. Проект реализуется при поддержке Российского научного фонда.

На V Московском международном открытом книжном фестивале в Центральном доме художника на Крымском валу
Фото: РИА Новости/Валерий Мельников

— Когнитивная модель существует в голове любого носителя языка. Это схемы, но они реализуются через конкретные слова, — пояснила профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина.

Другим видом манипуляции может выступать использование автором слова с несколькими значениями, смыслами, чтобы запутать читателя. К хитростям такого рода относится употребление английского apparent, которое может иметь два фактически противоположных значения: «очевидный» и «кажущийся». Особое влияние на восприятие информации читателем могут оказывать эвфемизмы, когда отрицательно окрашенное слово заменяется другим, более нейтральным или положительно окрашенным. Например, в американской культуре в публичной речи считается неуместным использовать слово «слепой», вместо него принято говорить «слабовидящий».

Фото: Global Look press/Wang Zhuolun

Авторы исследования планируют определить приемы, которые чаще всего используют для воздействия на читателя. В ходе работы ученые будут оценивать и сравнивать между собой материалы СМИ. После этого на основе анализа самых заметных и цитируемых интернет-текстов будет создан банк манипулятивных высказываний, к которым отнесут все сообщения, не соответствующие реальным фактам. Кроме текстов специалисты будут изучать и визуальный контент: мемы, видеоклипы, посты в соцсетях. Также в рамках научной работы компьютерными методами будет изучен банк эмоционально окрашенных текстов, состоящий из 3 млн слов.

— Мы начнем с анализа текстов, построим алгоритм идентификации манипулятивных высказываний. В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций, — сказала Вера Заботкина.

Избыток смыслов

Сегодня задача понимания содержания текста стала глобальным вызовом для компьютерной лингвистики и вообще для развития искусственного интеллекта, отметил доцент кафедры массовых коммуникаций РУДН Сергей Водопетов. По его словам, работа ученых РГГУ наверняка будет востребована теми специалистами, которые смогут взять научную теорию и обучить компьютер ее использованию.

— Пока мне сложно представить сферу применения подобного ПО, но я бы с любопытством посмотрел на рабочий прототип. Идея хорошая, но важно, чтобы искусственный интеллект работал без сбоев, — сказал заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.

Проверка наличия у посетителей QR-кодов на входе в парфюмерный супермаркет "Золотое яблоко" в Казани
Фото: РИА Новости/Максим Богодвид

Если в глобальном потоке контента человечество научится выявлять скрытый смысл, это позволит противодействовать информационным угрозам, привел пример использования разработки Сергей Водопетов.

«Известия» обратились в Минцифры с просьбой прокомментировать разработку программы, способной выявлять в контенте скрытую манипуляцию. В министерстве рекомендовали обратиться в Роскомнадзор. Там вопросы переадресовали в Главный радиочастотный центр, где оперативно не ответили на запрос.

Частично научить машину выявлять те или иные манипуляции возможно, но эта задача всегда будет упираться в ограничения искусственного интеллекта, считает заведующая кафедрой языков массовых коммуникаций УрФУ Елена Соболева. Естественный язык всегда многозначен, одно и то же слово может нести разные смыслы, пояснила она. До сих пор нет программ, которые могли бы распознавать разные значения одного слова, отметила эксперт. Человек многое понимает исходя из контекста и сочетаемости слов, поэтому вряд ли в ближайшем будущем будет создано ПО, точно распознающее манипуляции, объяснила специалист.

Читайте также
Прямой эфир