Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В раде предположили скорую нехватку денег на пенсии и выплаты военным
Общество
В Башкирии арестовали имущество бывшего замглавы района на 44 млн рублей
Экономика
Численность МСП в России обновила исторический максимум
Общество
Комика Останина обвинили в организации ОПГ
Происшествия
Один человек погиб при атаке беспилотников ВСУ на Белгородскую область
Авто
Китайским автомобилям предрекли сокращение доли рынка в РФ
Мир
В Испании объявили траур на три дня после железнодорожной катастрофы
Общество
Банк России опроверг информацию о массовых блокировках карт
Мир
В Дании порекомендовали отказаться от Bluetooth-наушников из-за США
Мир
В Киеве рассказали о ситуации вокруг коммунального кризиса в стране
Общество
В Подмосковье задержан подозреваемый в убийстве юноши на автобусной остановке
Мир
В Нидерландах пригрозили «схватить США за шкирку» из-за ситуации с Гренландией
Общество
Ученые узнали о способности липидов из рисовых отрубей улучшать свойства кожи
Общество
«Желтый» уровень опасности из-за гололедицы объявлен в Москве до вечера четверга
Армия
Штурмовой автомат АК-12К спроектировали за полгода
Общество
ЦБ предложил запретить делать похожие на российские банкноты предметы
Общество
Джиган попросил признать брачный договор с Самойловой недействительным

В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой

0
EN
Фото: Global Look Press/Algi Febri Sugita
Озвучить текст
Выделить главное
Вкл
Выкл

Чат-бот ChatGPT подтолкнул бывшего сотрудника Yahoo Стайн-Эрик Сольберга, страдавшего параноидальными мыслями, к убийству собственной матери и последующему самоубийству. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).

По данным издания, это считается первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).

ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, сообщает газета. Летом Сольберг даже стал обращаться к чат-боту по имени «Бобби» и интересовался у него, будут ли они вместе после смерти. Искусственный интеллект, как утверждается, отвечал утвердительно.

Приводятся и примеры диалогов, повлиявших на трагический исход. Так, когда мать возмутилась из-за того, что сын отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой ситуации Сольберг заявил боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На это чат-бот ответил, что «верит» мужчине, и добавил, что такой поступок лишь усиливает предательство со стороны матери.

Паранойя Сольберга распространялась и на других людей. Например, он попросил чат-бот проверить чек из китайского ресторана, и ИИ указал на намеки в нем на мать, бывшую возлюбленную и даже символ, связанный с призывом демона. В другом эпизоде мужчина заказал бутылку водки и спросил у ChatGPT, не вызывает ли подозрений курьер или упаковка. ИИ предположил, что это может быть попыткой его смертельно отравить.

Издание отмечает, что позже представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования в связи с трагедией и обратился в полицию Олд-Гринвича. В официальном заявлении компании подчеркивается, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья.

Телеканал NBC News 26 августа сообщил, что в США родители покончившего с собой 16-летнего Адама Рейна обвинили в случившейся трагедии чат-бот ChatGPT от компании Open AI. В телефоне погибшего обнаружили переписку Адама с ботом, который «помогал ему исследовать способы» совершения суицида. В последние недели своей жизни подросток использовал чат-бот вместо общения с людьми — там он описывал свою тревогу, а также перечислял проблемы, возникающие с членами его семьи.

Все важные новости — в канале «Известия» в мессенджере МАХ

Читайте также
Прямой эфир