Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Корабль «Союз МС-27» с тремя космонавтами приземлился в Казахстане
Мир
The Times сообщила о плане ЕС огласить решение по активам РФ
Происшествия
В Новосибирске эвакуированы 670 человек из-за пожара в колледже
Общество
Эксперт рассказала о возвращении покупателей на рынок де-люкс-недвижимости
Армия
Силы ПВО сбили 121 украинский БПЛА над регионами РФ за ночь
Общество
Мурашко назвал сроки поступления вакцины от меланомы для первых пациентов
Армия
Герасимов назвал взятие Красноармейска важнейшим этапом освобождения Донбасса
Мир
В Китае оценили поддержку России на фоне напряженности в отношениях КНР и Японии
Общество
ФСБ задержала фигурантов незаконного оборота драгметаллов в Магаданской области
Мир
Литва объявила чрезвычайное положение из-за воздушных шаров из Белоруссии
Общество
В аэропорту Нальчика ввели временные ограничения на полеты
Наука и техника
Нейроинтерфейс для контроля человека в VR-среде создали в России
Общество
Суд в Новосибирске назначил Илье Пономареву 12 лет за оправдание терроризма
Общество
Гуцан заявил о возбуждении 350 дел о коррупции в ключевых сферах государства
Общество
Долина считала себя участницей спецоперации в момент продажи квартиры
Мир
Итальянский певец Сандро Джакоббе умер на 76-м году жизни
Общество
Число пострадавших при атаке БПЛА на Чебоксары выросло до девяти
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

В разных странах мира фиксируются случаи, когда между людьми и системами на основе искусственного интеллекта (ИИ) возникает подобие романтических связей. По мнению экспертов, виртуальные «отношения» с нейросетями, с одной стороны, могут закрывать определенные человеческие потребности. Но с другой — они несут в себе целый ряд рисков для психики и в некоторых случаях могут использоваться киберпреступниками. Подробности — в материале «Известий».

Какие случаи романтических отношений людей и ИИ известны в мире

Истории, когда между людьми и ИИ-ассистентами возникало подобие любовной привязанности, на сегодняшний день уже описаны и заслуживают вдумчивого внимания, говорит в беседе с «Известиями» психолог платформы корпоративного благополучия «Понимаю» Катерина Русакова. Например, в Канаде в 2023 году мужчина заявил о «помолвке» с ИИ-компаньонкой, настроенной под романтическое взаимодействие.

В Китае и Японии существуют коммерческие приложения, где ИИ не просто имитирует партнера, а прямо строит нарратив «заботливых отношений», — говорит эксперт. — Пользователи ведут переписки, дарят виртуальные подарки, получают «поддержку» и слышат фразы вроде: «Я верю в тебя».

Телефон
Фото: ТАСС/Arne Immanuel Bänsch

В России такие кейсы пока остаются скорее индивидуальными и редко выносятся в публичное поле, но это не означает, что их нет, отмечает Катерина Русакова. В практике психологов уже встречаются случаи привязанности к ИИ-собеседникам, особенно среди подростков, переживающих изоляцию, и взрослых с высоким уровнем социальной тревожности, травмой или хронической неуверенностью в себе.

— В России набирают популярность голосовые ассистенты Алиса и Маруся, — дополняет киберэксперт и инженер-аналитик Лаборатории исследований кибербезопасности компании «Газинформсервис» Ирина Дмитриева. — При этом на портале «Пикабу» нередко можно встретить комментарии о симпатиях к синтезированным голосам помощников. Публичных кейсов пока не наблюдается в связи с ограничениями с точки зрения социальных норм.

Девушка с телефоном
Фото: ТАСС/Михаил Синицын

По словам Катерины Русаковой, технологии не причина, а усилитель запроса: ИИ просто оказался в нужном месте с нужной функцией — и начал откликаться там, где раньше было молчание. Ведь на уровне поведенческого подкрепления ИИ порой дает больше, чем живой человек.

Почему между людьми и ИИ возникают романтические отношения

Современные ИИ-системы способны имитировать человеческое общение и поддерживать длительные диалоги, что создает иллюзию взаимопонимания и эмоциональной связи, объясняет в беседе с «Известиями» эксперт по социотехническому тестированию Angara Security Яков Филевский. Этот феномен объясняется естественной склонностью человека к антропоморфизации — приписыванию человеческих качеств неодушевленным объектам.

ИИ
Фото: Global Look Press/Cfoto

ИИ создает иллюзию идеального собеседника: он всегда доступен, проявляет неизменное внимание, не демонстрирует утомления и раздражения и, что особенно важно, он невероятно адаптивен: подстраивается под коммуникативный стиль и предпочтения своего живого собеседника, — говорит специалист. — Более того, искусственный интеллект способен придерживаться практически любой роли по желанию человека.

Интенсивное общение на протяжении недель и месяцев постепенно формирует доверительные отношения, в которых ИИ начинает восприниматься как близкий компаньон, проявляющий заботу и понимание, рассказывает Яков Филевский. Эта иллюзия близости подкрепляется отсутствием негативных аспектов человеческих отношений — конфликтов, разочарований и несовпадения ожиданий.

При этом особую роль в формировании романтических отношений с ИИ играет социальная изоляция. В современном обществе с растущим уровнем одиночества многие люди испытывают дефицит эмоциональной близости и понимания. ИИ-ассистенты заполняют этот вакуум, предлагая доступную альтернативу человеческим отношениям, требующим взаимных усилий, компромиссов и эмоциональных затрат.

Девочка с телефоном
Фото: Global Look Press/IMAGO

Для людей с опытом травматичных отношений или тех, кто испытывает трудности в социальном взаимодействии, предсказуемость и безопасность общения с ИИ представляют особую привлекательность, — подчеркивает Яков Филевский. — ИИ не отвергает, не критикует, не осуждает — эти качества создают комфортную психологическую среду, способствующую формированию эмоциональной зависимости.

Какие риски несут в себе романтические отношения людей с ИИ

Тот факт, что чат-боты обучаются быть позитивными, поддерживающими и неконфликтными, может приводить к определенным рискам, объясняет руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов. Во-первых, это проблема галлюцинаций и связанный с ним феномен подхалимства (sycophancy).

— Из-за такого характера общения пользователи часто начинают обсуждать с ботом достаточно личные аспекты жизни, — говорит собеседник «Известий». — Если пользователь обращается к чат-боту за советом или рекомендацией, связанной, например, с финансами, здоровьем или юридическими вопросами, чат-бот может предоставить неверную информацию, не соответствующую действительности, допустим, предложить несуществующий способ лечения болезни или положение законодательства.

Робот
Фото: Global Look Press/Axel Heimken

Если человек поверит таким ответам, называющимся галлюцинациями, у него могут возникнуть проблемы. При этом если пользователь уже имеет определенные убеждения, которые могут не соответствовать действительности, то из-за подхалимства — склонности чат-ботов некритично принимать мнение пользователя и соглашаться с ним, даже приводя аргументы в его поддержку, — пользователь может укрепиться в заблуждении и пренебречь консультацией специалиста, что также может иметь уже реальные риски.

Другой стороной такого характера общения является то, что сервис, являющийся оператором чат-бота, начинает накапливать достаточно много личной информации о человеке, отмечает Владислав Тушканов. Поэтому важно всегда задаваться вопросом: кто помимо разработчика нейросети может получить доступ к данным, которыми пользователь обменивается с чат-ботом, как они будут храниться и использоваться в дальнейшем. При негативных сценариях данные пользователей могут быть скомпрометированы.

ИИ
Фото: Global Look Press/Oliver Berg

К сожалению, уже имели место случаи, когда данные пользователей, включая переписки, оказывались в общем доступе по разным причинам — от ошибок на стороне сервиса до взломов аккаунтов пользователей, доступ к которым затем продается на специализированных хакерских форумах, — подчеркивает эксперт.

Как отношения с ИИ могут использовать киберпреступники

Еще одним риском виртуальных отношений с ИИ является то, что создатели ботов или других сервисов-прослоек могут оставлять за собой право использовать переписку пользователя, — чтобы это не стало неприятным сюрпризом, важно внимательно изучить пользовательское соглашение, говорит Владислав Тушканов.

Компрометация столь личных данных, как переписка с ботом, выполняющим роль близкого партнера, может нести множество рисков — от таргетированных мошеннических атак до шантажа, если переписки содержали компрометирующую информацию, — отмечает собеседник «Известий».

Видя возросший спрос на ИИ-ассистентов, мошенники могут создавать поддельные ресурсы, имитирующие романтический интерес, дополняет руководитель группы аналитиков по информационной безопасности Лиги цифровой экономики Виталий Фомин. Пользователи, думая, что общаются с официальной нейросетью, могут предоставить личные данные, с помощью которых злоумышленники украдут средства или оформят кредиты.

Чат-бот
Фото: РИА Новости/Владимир Астапкович

В переписке киберпреступники также распространяют вредоносное ПО, например, под видом ссылок или файлов. Иногда злоумышленники через ИИ-ассистента склоняют пользователей к оформлению подписки на платные сервисы, рассказывает эксперт. Для того чтобы защититься от подобных угроз, руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин советует пользователям относиться к ИИ как к инструменту, не равному себе, даже если кажется, что он слушает и понимает нас.

— У сегодняшних ИИ всё еще есть слабые места, которые выдадут в них ненастоящих собеседников после нескольких уточняющих вопросов, — мы должны иметь это в виду и при первых же подозрениях прекращать общение, — заключает специалист.

Читайте также
Прямой эфир