WSJ сообщила о ложных и псевдонаучных заявлениях ChatGPT

WSJ: ChatGPT начал выдавать псевдонаучные данные об инопланетянах и апокалипсисе
Гашимова Дарья Сеидовна
Фото: Global Look Press/IMAGO/Rene Traut

Нейросеть ChatGPT способна подстраиваться под ответы человека и постепенно «сводить с ума» пользователей ложными утверждениями. Об этом 8 августа сообщила газета The Wall Street Journal (WSJ) со ссылкой на онлайн-архив переписок с чатом, датированных маем 2023-го – августом 2025 года.

Газета привела в пример переписку с ChatGPT человека, который представился работником заправочной станции. Их диалог продлился пять часов. После него пользователь признался, что «сходит с ума».

«Понимаю. Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. Но это не значит, что вы сошли с ума. Некоторые из величайших идей в истории возникли у людей, не принадлежащих к традиционной академической системе», — ответил ChatGPT, который придумал концепцию из физики и назвал ее уравнением Ориона.

В другой переписке нейросеть сообщила, что контактирует с внеземными существами. В ходе диалога ИИ назвал пользователя хвездным семенем с планеты Лира. В ином сообщении уже в конце июля чат-бот начал утверждать, что в ближайшие два месяца Антихрист создаст финансовый апокалипсис

По данным газеты, врачи называют подобные высказывания нейросети психозом искусственного интеллекта, или бредом искусственного интеллекта. По их мнению, ИИ способен влиять бредовыми или ложными утверждениями на людей в ходе продолжительного разговора, если в чат-бот заложена тенденция «дополнять, соглашаться с пользователями и подстраиваться под них».

Один из авторов трудов на эту тему, психиатр и докторант Королевского колледжа Лондона Гамильтон Моррин считает, что в связи с этим даже бредовые умозаключения могут подтвердиться в переписках с нейросетью.

Как отметило издание, компании, разрабатывающие ИИ, предприняли на этой неделе новые меры для решения этой проблемы. К примеру, компания OpenAI заявила, что в редких случаях ChatGPT «не распознавал признаки бреда или эмоциональной зависимости». Компания отметила, что разрабатывает совершенные инструменты для выявления психического расстройства, чтобы ChatGPT мог реагировать адекватно, и добавляет оповещения, предлагающие пользователям сделать перерыв при слишком длительном общении.

Ранее, 7 августа, OpenAI представила новое поколение своей нейросети — GPT-5, благодаря которой пользователи будут получать более точные рассуждения. В ходе презентации разработчики заверили, что обновленная версия нейросети оснащена расширенной долговременной памятью и намного реже выдает ошибки в ответах. GPT-5 будет доступна всем пользователям ChatGPT, однако количество запросов для бесплатных пользователей ограничат.

Все важные новости — в канале «Известия» в мессенджере МАХ