Число сайтов, публикующих фейковые статьи, созданные при помощи искусственного интеллекта (ИИ), с мая 2023 года выросло более чем на 1000% — об этом предупредили эксперты. Сегодня вместо прежних 49 в Сети есть 614 ресурсов, которые работают либо с минимальным, либо с полным отсутствием контроля со стороны людей. Подробности о том, кто и зачем массово запускает сайты с фейковыми статьями, созданными при помощи ИИ, читайте в материале «Известий».
Тревожная динамика
О невероятном росте числа сайтов, публикующих фейковые статьи, созданные при помощи ИИ, сообщили специалисты организации NewsGuard, которая отслеживает распространение дезинформации. Как отмечают эксперты, большинство людей не имеет достаточных навыков критического анализа новостей, что делает стремительное распространение подобных ресурсов особенно опасным.
Как правило, такие сайты имеют схожие с реальными названия — к примеру, iBusiness Day, Ireland Top News и Daily Time Update. При беглом взгляде их легко спутать с настоящими новостными сайтами. Такие ненадежные новостные и информационные порталы, которые были созданы при помощи ИИ, получили название Unreliable AI-Generated News (UAINS). В NewsGuard подчеркивают, что подобные сайты работают или с минимальным, или с полным отсутствием контроля со стороны человека.
При этом контент для них в основном или полностью создан ботами, а не журналистами. По мнению аналитиков NewsGuard, отчасти вина за расцвет таких сомнительных ресурсов лежит на брендах, которые готовы продвигать свою рекламу фактически везде. Сайты, публикующие фейковые статьи от ИИ, зачастую получают доход от программной рекламы. Ее отличает то, что рекламные технологии подают объявления, абсолютно не учитывая их качество и содержание сайтов. Таким образом известные бренды невольно поддерживают ресурсы с фейковыми статьями.
Инструмент манипуляций
Как рассказал в беседе с «Известиями» руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин, сегодня фейковые статьи, созданные при помощи ИИ, стали одним из инструментов информационной войны. Раньше созданием подобных фейков занимались люди, но сегодня такие материалы можно плодить в промышленных масштабах с использованием ИИ.
— Любые фейковые новости создают недостоверную картину мира, — говорит эксперт. — А это в свою очередь будет влиять на принятие решений. Если речь о главе компании или государства, то цена такой ошибки слишком высока.
По словам Полунина, как правило, такие статьи посвящены людям, с репутацией которых нужно поработать, или же резонансным событиям, отношение к которым нужно сформировать у читателя. Член правления общественного движения «Информация для всех» Евгений Альтовский считает, что тематика фейковых статей от ИИ может быть крайне широкой, ведь их цель — «зацепить» максимально широкую аудиторию.
Кроме того, по словам эксперта, нередко большая часть фейковых статей создается не для дезинформации, а для создания видимости обычного сайта с новостным контентом. Раньше подобные ресурсы создавались за счет украденных статей с сайтов реальных СМИ и за это подвергались риску блокировки или судебного преследования за кражу интеллектуальной собственности.
— Сгенерированные ИИ статьи позволяют избежать таких рисков и автоматически создавать сотни псевдо-СМИ, — отмечает Альтовский. — Статьи же, которые являются подлинной целью существования таких сайтов, единичны и, скорее всего, тщательно написаны «руками».
При этом, как говорит эксперт, схем использования сайтов с фейковыми новостями от ИИ может быть огромное количество — порой их цели могут быть сугубо практическими. К примеру, их могут использовать для повышения упоминаемости (в том числе с заданными характеристиками) некоего объекта или события.
Промышленные масштабы
Евгений Альтовский приводит пример: некие третьи лица хотят распространить информацию о начинающей поп-певице, но не могут заинтересовать ее творчеством серьезные и популярные издания. Тогда они начинают размещать за относительно скромную плату текст о певице на сотнях сайтов псевдо-СМИ и сразу получают сотни упоминаний никому не известной звезды.
— Любой, кто заинтересуется певицей и наберет ее имя в поисковике, будет поражен: оказывается, это звезда, о ней пишут сотни СМИ, — объясняет собеседник «Известий». — Впрочем, с тем же успехом можно распространять и порочащую информацию о реальных звездах шоу-бизнеса.
По словам Сергея Полунина, инструменты на основе ИИ сегодня стали доступными и надежными. А бюджет на создание фейковых статей при помощи этих технологий может быть сколь угодно мал, поскольку предложений на рынке более чем достаточно.
В свою очередь, основатель и СЕО Mirey Robotics, эксперт по искусственному интеллекту Андрей Наташкин отмечает, что о возможности появления целых СМИ, которые будут распространять вымышленную информацию, эксперты предупреждали еще в 2019 году.
— Само по себе распространение фейковых новостей не является новым явлением, но искусственный интеллект увеличил количество такого контента в несколько сотен раз, — рассказывает специалист. — И эта тенденция будет усиливаться, ведь фактически производство такого контента ничего не стоит.
В частности, по словам Наташкина, для работы псевдо-СМИ, которые публикуют фейки от ИИ, не нужно нанимать штат журналистов, корректоров и редакторов — все эти функции берет на себя нейросеть. Она же может генерировать вымышленные изображения, а значит, в штате не нужны ни фотографы, ни иллюстраторы. В результате такие порталы могут приносить своим создателям прибыль от рекламодателей, практически не требуя вложений.
Механизмы защиты
В свете бурного роста числа подобных ресурсов встает вопрос, как их распознать. Андрей Наташкин рассказывает, что всего год назад можно было с легкостью распознать текст, сгенерированной нейросетью, но сегодня ИИ становится всё умнее. Однако определенные рекомендации на этот счет все-таки существуют.
— Во-первых, нейросеть может выдумывать и упоминать несуществующие устройства или технологии, — говорит собеседник «Известий». — Например, она генерирует текст по новостям о возможности создания какого-то суперустройства. Однако время прошло, идея так и не была реализована, но нейросеть не проверяет это, а пишет о создании устройства как о свершившемся факте.
Во-вторых, по словам Наташкина, нейросеть может выдумывать экспертов, названия компаний и научных институтов. А в-третьих, нужно обращать внимание на общую логику: если между абзацами есть смысловые нестыковки — это показатель сгенерированного текста.
Евгений Альтовский советует в любом случае, читая новости в интернете, задействовать критическое мышление. По мнению Альтовского, возросшее число фейков сделает осторожного и разумного человека еще более осторожным и разумным в суждениях, а наивного лишь быстрее и ловчее обманет. При этом особенно актуальна эта проблема для журналистов, дополняет Сергей Полунин.
— Профессиональные журналисты давно осваивают инструменты для работы с различными источниками, но с появлением ИИ нагрузка в этом плане серьезно возросла, — заключает эксперт. — Поэтому сегодня репутация для СМИ — очень горячая тема, а проверка источников на предмет фейков (в том числе от ИИ) — их ежедневная задача.