Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В ЕП предупредили о последствиях для ЕС из-за ответа Трампу на пошлины
Спорт
«Лацио» потерпел поражение от «Комо» со счетом 0:3
Экономика
В РАН назвали главные угрозы внедрения ИИ в финансовой сфере
Общество
Правительство не поддержало законопроект об увеличении стоимости подарков учителям
Мир
Евродепутат от Болгарии оценил шансы партии президента страны на выборах
Общество
«Шанинка» обратилась в суд с иском об отмене приостановки лицензии
Общество
В ЛДПР предложили ограничить рост тарифов ЖКХ уровнем инфляции
Мир
Туск прокомментировал приглашение Польши в «Совет мира» по Газе
Мир
Офис Орбана обвинил Брюссель в подготовке к ядерной войне
Наука и техника
Ученые восстановили историю растительности Камчатки за 5 тыс. лет
Мир
Силы ПВО за три часа уничтожили 47 БПЛА ВСУ над регионами России
Общество
В КПРФ предложили повысить до 45% налоговую ставку на доходы свыше 50 млн рублей
Мир
Президент Сирии Шараа и Трамп обсудили развитие событий в Сирии по телефону
Мир
Политолог Колташов назвал Гренландию платой ЕС за обман США
Общество
Янина назвала Валентино Гаравани последним императором высокой моды
Экономика
В России было ликвидировано 35,4 тыс. предприятий общепита за 2025 год
Мир
Додон назвал выход Молдавии из СНГ противоречащим интересам народа

В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой

0
EN
Фото: Global Look Press/Algi Febri Sugita
Озвучить текст
Выделить главное
Вкл
Выкл

Чат-бот ChatGPT подтолкнул бывшего сотрудника Yahoo Стайн-Эрик Сольберга, страдавшего параноидальными мыслями, к убийству собственной матери и последующему самоубийству. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).

По данным издания, это считается первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).

ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, сообщает газета. Летом Сольберг даже стал обращаться к чат-боту по имени «Бобби» и интересовался у него, будут ли они вместе после смерти. Искусственный интеллект, как утверждается, отвечал утвердительно.

Приводятся и примеры диалогов, повлиявших на трагический исход. Так, когда мать возмутилась из-за того, что сын отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой ситуации Сольберг заявил боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На это чат-бот ответил, что «верит» мужчине, и добавил, что такой поступок лишь усиливает предательство со стороны матери.

Паранойя Сольберга распространялась и на других людей. Например, он попросил чат-бот проверить чек из китайского ресторана, и ИИ указал на намеки в нем на мать, бывшую возлюбленную и даже символ, связанный с призывом демона. В другом эпизоде мужчина заказал бутылку водки и спросил у ChatGPT, не вызывает ли подозрений курьер или упаковка. ИИ предположил, что это может быть попыткой его смертельно отравить.

Издание отмечает, что позже представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования в связи с трагедией и обратился в полицию Олд-Гринвича. В официальном заявлении компании подчеркивается, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья.

Телеканал NBC News 26 августа сообщил, что в США родители покончившего с собой 16-летнего Адама Рейна обвинили в случившейся трагедии чат-бот ChatGPT от компании Open AI. В телефоне погибшего обнаружили переписку Адама с ботом, который «помогал ему исследовать способы» совершения суицида. В последние недели своей жизни подросток использовал чат-бот вместо общения с людьми — там он описывал свою тревогу, а также перечислял проблемы, возникающие с членами его семьи.

Все важные новости — в канале «Известия» в мессенджере МАХ

Читайте также
Прямой эфир