Контент, создаваемый пользователями при помощи технологий искусственного интеллекта (ИИ) как для безобидного развлечения, так и для проведения крупных афер, может быть распознан спецпрограммами или внимательным получателем, следующим ряду советов. Об этом 27 апреля сообщили эксперты созданного в 2022 году онлайн-проекта «Перезвони сам».
«В большинстве случаев пользователи публикуют ИИ-контент в интернете для развлечений — например, создают в социальных сетях аккаунты персон, которых не существует, и публикуют в них сгенерированные изображения. Но и злоумышленники могут использовать технологию, чтобы обмануть, ввести в заблуждение или совершить преступление», — приводятся слова специалистов на сайте mos.ru.
Подчеркивается, что лица, запланировавшие преступить закон, часто генерируют при помощи нейросетей видеоролики, на которых присутствуют знакомые какой-то конкретной жертвы или всем известные персоны. Чтобы выявить обман, получателю такого контента необходимо обратить внимание на детали. В таких клипах, как правило, движения губ запечатленного на них не всегда совпадают с реально произносимыми им словами, а его зрачки не реагируют на свет и не фокусируются на каких-то объектах, предупредили эксперты.
Человек на таком ИИ-видео может обладать идеальным лицом, неестественными по длине пальцами рук, двигаться замедленно и транслировать эмоции, несовпадающие с атмосферой самого послания. На его фоне зачастую то исчезают, то появляются предметы, а сами пропорции порой нарушаются.
Для того чтобы распознать искусственную фотографию смотрящему, нужно также обращать внимание на взгляд изображенного человека, фиксировать странные и нетипичные тени, а также нехарактерные пряди волос или складки одежды. ИИ-генераторы, создавая подобные материалы, могут допускать ошибки в вывесках на фотографии или «додумывать» то, чего на них не должно было быть. Получив такой файл, важно проанализировать и метаданные: в нейрофото нет информации о том, на какую конкретно камеру был сделан снимок, а также отсутствуют данные о параметрах файла и дате, когда он был создан.
Говоря об ИИ-текстах, сотрудники «Перезвони сам» заявили, что в таких материалах часто отсутствует логика, а абзацы повторяют одну и ту же мысль. Кроме того, ИИ, даже невзирая на имитацию при помощи больших языковых моделей (LLM, Large language model) эмоций человека, пока не умеет отстаивать свою позицию. В таких публикациях встречаются распространенные метафоры и сравнения, а также отсутствуют уникальные примеры из жизни.
В статье добавили, что в процессе распознавания такого контента могут поспособствовать специальные программы. Они, конечно, не гарантируют совершенно точный результат, но позволяют получить предварительную оценку авторства того или иного сообщения.
Представители «Роскачества» 24 апреля, говоря о рывке, который фиксируется в технологиях по созданию дипфейков, указали на порождаемые им трудности. Так, по их наблюдениям, для того чтобы сгенерировать конкретного персонажа, заинтересованные в этом лица стали прибегать сразу к нескольким программам. Они «склеивают» образ человека в несколько этапов, а потом используют его порой в коммерческих и преступных целях. В инстанции порекомендовали россиянам, не желающим быть введенными в заблуждение, придумать кодовое слово, при помощи которого можно вывести из строя ИИ-копию человека.