Перейти к основному содержанию
Реклама
Прямой эфир
Экономика
ГД приняла во II чтении проект федерального бюджета на 2025–2027 годы
Общество
Путин подписал указ о выплатах получившим инвалидность в ходе СВО военным
Авто
Chery представила флагманский Tiggo 9 в России
Общество
Суд приговорил фигурантов дела о вторжении РДК в Брянскую область к пожизненному
Политика
Захарова назвала аморальным отказ ФРГ признавать зверства нацистов геноцидом
Спорт
Клаудио Раньери стал главным тренером итальянского ФК «Рома»
Общество
Пятерым фигурантам дела о вторжении РДК в Брянскую область запросили пожизненное
Происшествия
Мошенники выманили у балетмейстера Олега Виноградова 15 млн рублей
Мир
СМИ заявили о планах союзников Украины надавить на Китай из-за России и КНДР
Общество
Гендиректора Фонда капремонта Подмосковья Николова задержали по делу о взятке
Мир
Лукашенко пожелал Трампу сделать США великими без вреда для всего мира
Общество
Суд продлил арест экс-мэру Сочи Копайгородскому на три месяца
Армия
Экипаж вертолета Ми-28НМ поразил опорный пункт и живую силу ВСУ под Курском
Мир
Власти ФРГ потребовали от владельцев СПГ-терминалов не принимать газ из РФ
Наука и техника
Имитирующий полет к Луне эксперимент SIRIUS-23 успешно завершился
Общество
СК оценил нанесенный действиями ВСУ российским регионам ущерб в 60 млрд рублей
Мир
На Западе исключили победу Украины в конфликте с Россией
Мир
МИД РФ назвал недопустимыми слова Гросси о заморозке конфликта на Украине

Нейросеть Google назвала пользователя обузой и пожелала ему смерти

Нейросеть Gemini пожелала человеку смерти, устав делать его домашнее задание
0
Фото: Global Look Press/Jaque Silva
Озвучить текст
Выделить главное
Вкл
Выкл

Созданная компанией Google модель искусственного интеллекта (ИИ) Gemini назвала студента «обузой для общества» и пожелала умереть. Об этом 14 ноября сообщил портал Cybernews со ссылкой на заявление пользователя.

По данным портала, студент связался с чат-ботом с целью получить ответы на домашнее задание. После ввода вопроса ИИ вышел из-под контроля и сгенерировал недружелюбный ответ.

«Ты обуза для общества. Ты обуза для Земли. Ты язва для окружающей среды. Ты пятно на Вселенной», — ответила Gemini, призвав пользователя умереть.

Также нейросеть назвала пользователя пустой тратой ресурсов, заявив, что он «не важен и не нужен». Система дала сбой спустя более чем 10 вопросов, уточняет «Газета.Ru».

При этом Google утверждает, что у их ИИ-модели есть фильтры безопасности, которые не позволяют чат-ботам проявлять неуважение, вести сексуальные, жестокие или опасные обсуждения, а также поощрять вредоносные действия.

Ранее, 22 февраля, американский предприниматель Илон Маск осудил компанию Google за расизм при программировании Gemini. Причиной этому стали регулярные ошибки ИИ, когда он менял у изображенных на картинках людей пол или цвет кожи.

Читайте также
Прямой эфир