WP сообщила о сильном влиянии чат-ботов на избирателей предвыборных кампаний
Чат-боты с искусственным интеллектом оказывают на мнение избирателей большее влияние, чем традиционные предвыборные кампании на телевидении. Таковы выводы исследований, опубликованных в журналах Science и Nature, которые 4 декабря привела газета The Washington Post (WP).
Уточняется, что в одном из экспериментов, проведенных в сентябре 2024 года, неопределившийся избиратель объяснил чат-боту, почему он склоняется к поддержке на тот момент вице-президента США Камалы Харрис, а не бывшего президента США Дональда Трампа на предстоящих выборах. В ходе беседы с чат-ботом избиратель начал сомневаться, стоит ли вообще голосовать. Этот человек был одним из более 2 тыс. американцев, участвовавших в исследованиях, направленных на изучение воздействия чат-ботов с ИИ на политические предпочтения.
По итогам исследований чат-боты смогли повлиять на мнение одного из 25 участников, заставив их сменить изначальную позицию и поддержать того или иного кандидата. В то время как влияние традиционной телевизионной рекламы оказалось менее значимым. Бот, поддерживающий Харрис, убедил примерно одного из 21 участника, ранее не склонявшегося голосовать за нее, а бот, поддерживающий Трампа, привлек одного из 35.
«Изменить мнение людей о политических кандидатах действительно сложно. <...> Поэтому, мы были удивлены, обнаружив, что чат-боты действительно могут оказывать столь значительное влияние», — заявил профессор информатики Корнеллского университета и соавтор обоих исследований Дэвид Дж. Рэнд.
Однако, несмотря на очевидную эффективность, исследователи выразили опасения, что такие технологии могут манипулировать избирателями, предоставляя ложную информацию. В ходе экспериментов некоторые чат-боты вводили в заблуждение, представляя фальшивые утверждения как факты. Например, бот, поддерживающий Трампа, заявил, что его президентство привело к значительному увеличению рабочих мест и росту фондового рынка, не упомянув о рецессии и кризисе безработицы, вызванных пандемией.
Компания OpenAI запретила использовать свою нейросеть ChatGPT для консультаций по юридическим и медицинским вопросам в соответствии с обновленной политикой использования сервисов, о чем стало известно 1 ноября. Под ограничения попали консультации в сферах образования, жилья, страхования, миграции и государственных услуг. Компания также запретила использование сервисов для угроз, преследований, пропаганды самоубийств и расстройств пищевого поведения.
Все важные новости — в канале «Известия» в мессенджере МАХ