Люди все чаще обращаются к нейросетям вместо психологов. Психологи и психиатры объяснили «Известиям», может ли ChatGPT заменить настоящего специалиста и как безопасно пользоваться им при ментальных проблемах.
Мировой тренд
Использование нейросетей в качестве психологов может быть опасно: обострять чувство одиночества, развивать эмоциональную зависимость от ботов и сокращать общение с людьми, предупредила медицинский директор в онлайн-страховой компании «Лучи» Наталья Красненкова.
По ее словам, чаще всего россияне используют ChatGPT — языковую модель, способную отвечать на вопросы и решать различные задачи. Они могу вводить промпты вроде «ты психолог, специализирующийся на когнитивно-поведенческой терапии. Задавай по одному вопросу за раз и дай мне полностью ответить, прежде чем переходить к другому. Твоя цель — помочь мне преодолеть проблемы и травмы».
— Получается, что человек в одностороннем порядке записывает свои мысли и переживания (подобно письменным практикам), самостоятельно задает вопросы, а в ответ просто получает совет-выжимку из тысячи документов на схожую тему, — поясняет эксперт.
В целом, отмечает она, нейросети удобны — они бесплатны, постоянно доступны, анонимны, не критикуют и не осуждают (как и грамотный психотерапевт), быстро дают ответ. Но важно помнить, что ChatGPT — это просто программа, и создание чуткого контакта, способность замечать нюансы, углубляться в сложные чувства ей недоступны.
— Потому общение пользователя с нейросетью при сложившихся психологических запросах может привести к ситуации, когда человек замыкается и лишь усугубляет свое эмоциональное состояние. Кроме того, он не отслеживает прогресс, может упустить ухудшение, — отмечает эксперт.
Польза и вред
Психологи и психиатры, с которыми пообщались «Известия», уверены, что ИИ бывает полезен и для специалистов, и для пациентов, но лишь в некоторых моментах. Как считает практикующий психолог, основатель онлайн-школы «Кочка Зрения» Татьяна Воргуль, нейросети могут успешно выполнять несколько функций.
Первичный скрининг. Чат-боты собирают симптомы, предлагают тесты на тревожность или депрессию — как анкеты в поликлинике. Это экономит время, но не заменяет специалиста.Кризисная поддержка. Для людей в изоляции ИИ-помощники становятся «первой помощью», предотвращая суициды до встречи с врачом. Иногда важно просто высказаться, получить уточняющие вопросы или похвалу.Анализ данных. Алгоритмы обрабатывают массивы информации (паттерны сна, речевые маркеры), выявляя риски. Но выводы требуют проверки человеком.При этом, уверена эксперт, полноценную диагностику ИИ не проведет. Ошибаются даже продвинутые алгоритмы. К примеру, ИИ, обученный распознавать деменцию по речи, дает 20% ложных срабатываний. Психические расстройства редко укладываются в шаблоны: депрессия может маскироваться под лень, а тревожность — под раздражительность. Только врач видит полную картину, в частности биографию, семейный анамнез, социальный контекст.
— Самодиагностика с использованием ИИ может привести к серьезным ошибкам. Чат-боты не способны учитывать все нюансы и индивидуальные обстоятельства, влияющие на состояние пользователя. Это может приводить не только к неправильной интерпретации симптомов, но и к принятию неправильных решений, что усугубляет ситуацию, — подчеркивает психиатр, главный врач Mental Health Center Анна Корендюхина.
Возможна ли полная замена психологов
Полную замену психологов ИИ специалисты считают скорее опасной. По мнению психиатра Анны Корендюхиной, большинство развлекательных чат-ботов разрабатываются для удержания внимания пользователей и не могут восприниматься как источники профессиональной помощи.
— Чат-боты могут создавать иллюзию поддержки и надежности, которая приводит к тому, что пользователи не обращаются за необходимой помощью к специалистам, а это может ухудшить состояние, — говорит психиатр.
Важно понимать, что у нейросетей нет ни квалификации и опыта, ни обыкновенной человеческой эмпатии, добавляет Татьяна Воргуль. Они не услышат дрожь в голосе, не поймут скрытые мотивы. Например, слова «мне грустно» могут скрывать депрессию, тоску или травму — алгоритм не отличит их. Психолог же, замечая невербальные сигналы (ритм дыхания, мимику, жесты), помогает раскрыть истинные причины переживаний. Иногда клиенту нужна не рекомендация, а поддержка — даже просто человеческое тепло.
Впрочем, рекомендации от нейросетей тоже могут быть неоднозначными. Исследование Journal of Medical Internet Research (2023) выявило, что 30% советов ИИ по психическому здоровью содержат ошибки и могут не улучшить, а, наоборот, ухудшить состояние пациента (например, при панической атаке, нервном срыве, депрессии).
— И за это никто не будет отвечать. Как и за утечку данных — психологи обязаны сохранять тайну, а у алгоритмов нет моральных обязательств, вы не можете быть уверены в конфиденциальности, — заключает Воргуль.
Важность терапии
Подводя итог, специалисты отмечают, что нейросетями можно пользоваться как инструментом — например, дневниками и таблицами для самонаблюдения. Однако квалифицированную помощь можно получить только у психолога или терапевта, в терапевтических отношениях.
— Клинические психологи и психотерапевты проводят оценку и лечение, учитывая множество факторов. Их обучение и лицензирование гарантируют соответствие этическим и профессиональным стандартам, что необходимо для обеспечения безопасности и эффективности. Особенно важно обратиться к специалисту, когда возникают серьезные проблемы, так как неправильная помощь может иметь катастрофические последствия, — предупреждает Анна Корендюхина.
Точно также, добавляет Татьяна Воргуль, могут использоваться и другие инструменты, например метафорические карты. Они бывают хорошим помощником, но никогда не заменяют полноценную диагностику и работу.
— Психическое здоровье требует человеческого участия. Как говорил Карл Юнг, «ваша внутренняя жизнь — самая важная тайна». Но раскрыть ее легче, когда рядом те, кто слышит и понимает вас, — заключает психолог.