Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Захарова назвала фейком статью Bloomberg о корректировках мирного плана Россией
Мир
Новак заявил о финальной стадии подготовки к подписанию сделки по «Силе Сибири – 2»
Мир
Сын Байдена назвал Украину «рассадником зла»
Мир
Захарова назвала русофобию новой формой нацизма западных стран
Общество
Правительство Иркутской области запретит продажу алкоголя в шести селах региона
Общество
Площадь пожара на складе нефтепродуктов на Кубани выросла до 4 тыс. кв. м
Спорт
Фетисов назвал хоккеиста Овечкина спортсменом 2025 года в России
Общество
Экс-замначальника Казанского вокзала Москвы осудили за мошенничество
Авто
В России произошло 257 ДТП за минувшие сутки
Мир
В Таиланде россиянина поместили в СИЗО после увольнения из-за опозданий на работу
Интернет и технологии
Более половины производств готовы вложиться в роботов с физическим ИИ
Мир
В Китае представили гигантского снеговика в преддверии туристического сезона
Мир
Украинский постпред при ООН пожаловался на успехи России
Мир
Ким Чен Ын ознакомился с разработкой тайных подводных систем КНДР
Экономика
Новак спрогнозировал уровень инфляции в 6% к концу 2025 года
Авто
Обновленный Geely Monjaro поступил в продажу в России
Общество
В Санкт-Петербурге мошенники запустили приложение для обмана таксистов

Нейросеть Google назвала пользователя обузой и пожелала ему смерти

Нейросеть Gemini пожелала человеку смерти, устав делать его домашнее задание
0
Фото: Global Look Press/Jaque Silva
Озвучить текст
Выделить главное
Вкл
Выкл

Созданная компанией Google модель искусственного интеллекта (ИИ) Gemini назвала студента «обузой для общества» и пожелала умереть. Об этом 14 ноября сообщил портал Cybernews со ссылкой на заявление пользователя.

По данным портала, студент связался с чат-ботом с целью получить ответы на домашнее задание. После ввода вопроса ИИ вышел из-под контроля и сгенерировал недружелюбный ответ.

«Ты обуза для общества. Ты обуза для Земли. Ты язва для окружающей среды. Ты пятно на Вселенной», — ответила Gemini, призвав пользователя умереть.

Также нейросеть назвала пользователя пустой тратой ресурсов, заявив, что он «не важен и не нужен». Система дала сбой спустя более чем 10 вопросов, уточняет «Газета.Ru».

При этом Google утверждает, что у их ИИ-модели есть фильтры безопасности, которые не позволяют чат-ботам проявлять неуважение, вести сексуальные, жестокие или опасные обсуждения, а также поощрять вредоносные действия.

Ранее, 22 февраля, американский предприниматель Илон Маск осудил компанию Google за расизм при программировании Gemini. Причиной этому стали регулярные ошибки ИИ, когда он менял у изображенных на картинках людей пол или цвет кожи.

Читайте также
Прямой эфир