Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В бундесвере не раскрыли деталей миссии военных ФРГ в Гренландии
Происшествия
Трое пострадавших от взрыва газа в КБР находятся в реанимации
Мир
Бессент назвал Гренландию важным для безопасности США островом
Мир
WP сообщила о подготовке 1,5 тыс. военных США к переброске в Миннесоту
Происшествия
Самосвал разрушил переходной мост на М-4 «Дон» в Ростовской области
Мир
Политолог допустил присоединение США Канады после Гренландии
Мир
В Госдуме рассказали о последствиях двойных стандартов для Европы
Мир
В Госдуме после слов Мерца призвали немцев надеяться только на себя
Мир
Британские врачи объявили ЧС в области здравоохранения из-за смартфонов у детей
Мир
Восемь стран НАТО осудили угрозы США пошлинами из-за Гренландии
Происшествия
Четыре человека пострадали при взрыве газового баллона в частном доме в КБР
Общество
СК возбудил уголовное дело после падения льда на коляску на юго-востоке Москвы
Мир
Президент Ирана назвал возможную атаку на верховного лидера равноценной началу войны
Армия
Пушилин назвал оставшееся ВС РФ расстояние до Славянска в ДНР
Общество
Пленный боец ВСУ смог продержаться на передовой лишь 20 минут
Общество
Боец Чимаев опроверг слухи о своей гибели в соцсетях
Мир
Бессент заявил о неспособности Европы дать отпор России

В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой

0
EN
Фото: Global Look Press/Algi Febri Sugita
Озвучить текст
Выделить главное
Вкл
Выкл

Чат-бот ChatGPT подтолкнул бывшего сотрудника Yahoo Стайн-Эрик Сольберга, страдавшего параноидальными мыслями, к убийству собственной матери и последующему самоубийству. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).

По данным издания, это считается первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).

ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, сообщает газета. Летом Сольберг даже стал обращаться к чат-боту по имени «Бобби» и интересовался у него, будут ли они вместе после смерти. Искусственный интеллект, как утверждается, отвечал утвердительно.

Приводятся и примеры диалогов, повлиявших на трагический исход. Так, когда мать возмутилась из-за того, что сын отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой ситуации Сольберг заявил боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На это чат-бот ответил, что «верит» мужчине, и добавил, что такой поступок лишь усиливает предательство со стороны матери.

Паранойя Сольберга распространялась и на других людей. Например, он попросил чат-бот проверить чек из китайского ресторана, и ИИ указал на намеки в нем на мать, бывшую возлюбленную и даже символ, связанный с призывом демона. В другом эпизоде мужчина заказал бутылку водки и спросил у ChatGPT, не вызывает ли подозрений курьер или упаковка. ИИ предположил, что это может быть попыткой его смертельно отравить.

Издание отмечает, что позже представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования в связи с трагедией и обратился в полицию Олд-Гринвича. В официальном заявлении компании подчеркивается, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья.

Телеканал NBC News 26 августа сообщил, что в США родители покончившего с собой 16-летнего Адама Рейна обвинили в случившейся трагедии чат-бот ChatGPT от компании Open AI. В телефоне погибшего обнаружили переписку Адама с ботом, который «помогал ему исследовать способы» совершения суицида. В последние недели своей жизни подросток использовал чат-бот вместо общения с людьми — там он описывал свою тревогу, а также перечислял проблемы, возникающие с членами его семьи.

Все важные новости — в канале «Известия» в мессенджере МАХ

Читайте также
Прямой эфир