Перейти к основному содержанию
Реклама
Прямой эфир
Мир
СМИ узнали об усталости американцев от ИИ
Мир
В Индонезии после крушения самолета в горах найдено тело погибшего мужчины
Общество
В Минздраве опровергли информацию об угрозе пандемии аденовируса
Мир
Армия Сирии вернула контроль над месторождениями нефти и газа в курдской автономии
Мир
СМИ указали на плачевное состояние оборонного сектора Великобритании
Общество
Взыскание долгов за ЖКХ планируют перевести на цифровую платформу в 2028 году
Мир
В Госдуме рассказали о последствиях двойных стандартов для Европы
Мир
В Госдуме после слов Мерца призвали немцев надеяться только на себя
Мир
Британские врачи объявили ЧС в области здравоохранения из-за смартфонов у детей
Мир
Восемь стран НАТО осудили угрозы США пошлинами из-за Гренландии
Спорт
Австралийский боксер Зерафа получил повреждения глазницы в бою с Никитой Цзю
Мир
NBC узнал о планах Трампа закупить больше ледоколов для патруля вод Канады
Мир
WSJ узнала о трудностях ФРГ с набором солдат в армию из-за поколения Z
Армия
ВС РФ нанесли удары по объектам энергетики и транспортной инфраструктуры Украины
Происшествия
Лед упал с крыши на коляску с младенцем на юго-востоке Москвы
Происшествия
Четыре человека погибли при столкновении машины с поездом в Псковской области
Мир
Маск предупредил об исчезновении целых культур без решения проблем рождаемости
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Ведущие чат-боты стали давать в два раза больше ложной информации. Как уточнили эксперты, доля таких ответов выросла с 18 до 35%, несмотря на технологический прогресс и интеграцию онлайн-поиска. Почему искусственный интеллект стал чаще ошибаться, чем это опасно и как бороться с этой проблемой — в материале «Известий».

Что известно о растущей лжи от нейросетей?

О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США). По данным экспертов, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%.

бизнесмен
Фото: Global Look Press/Bulkin Sergey

Всего было протестировано 10 популярных ИИ-моделей, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. При этом все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили себе цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации.

Рост ложных ответов в результатах оказался таким:

  • Чат-бот Pi (стартап Inflection) — до 57%;
  • Perplexity (компания Perplexity AI) — рост с 0 до 47%;
  • ChatGPT (компания Open AI) — рост с 33 до 40%;
  • Grok (компания xAI) — рост с 13 до 33%;
  • Gemini (компания Google) — 17%.
  • Claude (компания Anthropic) — 10%.

Почему чат-боты стали чаще давать неверные ответы?

По мнению аналитиков NewsGuard, на ухудшение статистики могло повлиять то, что сегодня нейросети не отказываются отвечать на любые запросы, даже без достаточной верификации информации, хотя еще в 2024 году они воздерживались от 31% ответов.

рукопожатие
Фото: ИЗВЕСТИЯ/Анна Селина

С этим предположением согласен и директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.

— Дополнительным фактором стало подключение встроенного веб-поиска без достаточной проверки качества источников. Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания, — рассказывает специалист.

Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ — так называемый LLM grooming. Суть этого явления в том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей.

Отдельная уязвимость проявляется в многоязычных режимах: в аудите NewsGuard наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах — свыше 50% в совокупности.

телефон
Фото: ИЗВЕСТИЯ/Андрей Эрштрем

Важно и то, что современный контент всё активнее создается с помощью ИИ — дипфейки, статьи, посты для соцсетей и мессенджеров, дополняет ведущий эксперт по сетевым угрозам и web-разработчик компании «Код Безопасности» Константин Горбунов.

— Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон», — объясняет специалист.

Техническая природа проблемы кроется в архитектуре больших языковых моделей, которые предсказывают следующее слово на основе статистических закономерностей, а не реального понимания контекста, подчеркивает директор по ИИ «Группы Астра» Станислав Ежов.

Как будет меняться ситуация с фейковыми ответами от ИИ?

Проблема может сохраниться надолго, поскольку имеет комплексный характер, говорит в беседе с «Известиями» Al-консультант и специалист Аналитического центра кибербезопасности компании «Газинформсервис» Татьяна Буторина.

— Многие разработчики торопятся создать нейросетевые модели, обучают их на не слишком большом объеме данных, в которых есть как достоверная, так и ложная информация. Всё это отражается на результатах, — объясняет специалист.

ИИ
Фото: ИЗВЕСТИЯ/Сергей Коньков

Кроме того, по словам Татьяны Буториной, чем более узкой и новой является тема, которую запрашивает пользователь, тем меньше данных для ответа есть у нейросетей, что повышает риск «придумывания» ею ответов. Проблема усугубляется, если пользователь не формулирует полный и грамотный промпт, употребляет сленг и прочий «словесный шум», мешая нейросети понять запрос и сформировать релевантный ответ.

В то же время эксперт по кибербезопасности Angara Security Никита Новиков считает, что в долгосрочной перспективе рынок заставит корпорации улучшать качество нейросетей: те не могут себе позволить, чтобы их ИИ систематически ошибался в трети ответов. Появятся более жесткие фильтры, фактчек-слои, системы доверенных источников и другое.

— Снизить процент фейковых ответов можно, если вернуть более строгие фильтры отказа от ответов и внедрить инструменты проверки источников. В том числе нужно сопоставление с базами ложных нарративов, — соглашается Александр Кобозев.

ноутбук
Фото: Global Look Press/IMAGO

Пользователи ожидают от нейросетей ответы на любые запросы, а это стимулирует разработчиков снижать осторожность моделей, дополняет Станислав Ежов. Однако уже ведется активная работа по решению проблемы. В частности, созданы российские методы выявления галлюцинаций с точностью на 30% выше существующих решений.

Как защититься от ложных ответов нейросетей?

Большинство пользователей прибегает к помощи ИИ, если сами не могут проверить правильность ответа, говорит управляющий партнер коммуникационного агентства «Со-общение» Никита Степнов. А значит, ложные ответы могут приводить к самым разным негативным последствиям — от запуска кода, уничтожающего данные, до приема медикаментов, создающих реальные риски для здоровья.

— Чтобы защититься от подобных угроз, пользователям всегда следует критически относиться к ответам ИИ и проверять их достоверность. Важно четко понимать, в каких сферах применение искусственного интеллекта допустимо, а в каких — нет, — отмечает Константин Горбунов.

Категорически не следует полагаться на ИИ-советы в вопросах здоровья, приема лекарств, финансов или юриспруденции: подобные вопросы необходимо адресовать только профильным специалистам. Кроме того, ни при каких условиях не стоит делиться с чат-ботом конфиденциальной информацией.

ноутбук
Фото: Global Look Press/IMAGO/Andrew Brookes

С технической точки зрения выходом из ситуации может быть разработка доверенных ИИ-систем, а также комбинация нейросетей с системами верификации фактов, дополняет Никита Новиков. На практике это может быть реализовано следующим образом: нейросеть генерирует текст, но финальную проверку делают специализированные модули или второй слой ИИ, обученный именно на критическом анализе данных.

— Второе направление — маркировать уровень уверенности модели: не выдавать сомнительное как факт, а показывать пользователю, что это лишь предположение. И третье — добавить прозрачности источникам: если ответ собран из конкретных ссылок, это позволяет читателю самому оценить достоверность фактов, — отмечает эксперт.

Еще одним решением может стать маркировка сгенерированного ИИ-контента. Это позволит либо исключить такие данные из обучающих наборов, либо понизить к ним уровень доверия при обучении моделей, заключает Константин Горбунов.

Читайте также
Прямой эфир