- Статьи
- Интернет и технологии
- Аморальная проблема: искусственный интеллект стали использовать для создания детской порнографии
Аморальная проблема: искусственный интеллект стали использовать для создания детской порнографии
Искусственный интеллект (ИИ) стали использовать для создания сексуальных изображений детей — один из таких случаев зафиксирован в Южной Корее. Житель страны создал около 360 сексуальных изображений при помощи специальной программы, за что получил 2,5 года лишения свободы. Подробности о том, как злоумышленники превращают ИИ в инструмент для создания детской порнографии и какая ответственность грозит за это по закону, — в материале «Известий».
Судебный прецедент
О том, что в Южной Корее за создание сексуальных изображений детей при помощи ИИ осужден мужчина, сообщило издание Korea Herald со ссылкой на местные СМИ. Его приговорили к 2,5 года тюремного заключения за нарушение закона о защите детей и подростков.
Согласно данным южнокорейской прокуратуры, обвиняемый, которому было за 40 лет, использовал специальную «программу для создания изображений на основе ИИ» — при помощи нее он создал около 360 сексуальных изображений.
Этот контент, конфискованный полицией, мужчина не распространял. Чтобы создать изображения, он применял текстовые подсказки. Это позволило создать столь реалистичные картинки, что суд отклонил доводы защиты о том, что они не могут считаться изображениями сексуального характера.
Решение суда в Южной Корее показало, что фальшивые, но реалистичные изображения несовершеннолетних, созданные при помощи современных технологий, в настоящее время могут рассматриваться в качестве сексуально оскорбительного контента.
Цифровая этика
Как говорит в беседе с «Известиями» специалист по информационной безопасности Илья Карпук, нейросети могут создавать любые изображения, в том числе и порнографического содержания, поскольку это всего лишь алгоритм, компьютерная программа. Любые ограничения должны быть прописаны вручную. При этом публичные продукты на основе нейросетей стараются находиться в правовом поле, ограничивая генерацию любого порнографического содержания на своих сервисах.
— В основном эти ограничения работают через фильтры в генерирующих запросах — нельзя просто попросить публичную нейросеть, такую как Midjourney, или продукты от «Яндекса» сгенерировать порнографическую картинку, — объясняет эксперт. — Вы получите ошибку, что такой запрос неприемлем.
В свою очередь, основатель онлайн-сервиса юридической помощи Advostar.online, специалист по правовому регулированию ИИ и нейросетей Ильдар Мухаметзянов указывает, что при вводе в ChatGPT запроса на тему плюсов и минусов создания порнографии с помощью ИИ нейросеть ответит, что один из основных рисков — это как раз возможность генерации контента с участием несовершеннолетних или жертв насилия.
По словам эксперта, сегодня риски появления порнографического контента, созданного с помощью ИИ, меньше, чем 2–3 года назад. Но многие алгоритмы пока далеки от совершенства и не всегда работают корректно. Поэтому в отдельных случаях такие скандальные кейсы всё-таки могут всплывать.
— Даже разработчики популярных нейросетей периодически сталкиваются с кейсами, когда их мощности используют для создания опасного контента, — рассказывает Ильдар Мухаметзянов. — Например, в 2021 году с помощью ChatGPT геймеры самостоятельно могли добавлять в онлайн-игру AI Dungeon новые сцены и действия.
Через какое-то время в ChatGPT заметили, что некоторые игроки генерировали сцены сексуальных контактов с детьми. В результате разработчикам AI Dungeon пришлось значительно ужесточить модерацию контента, что вызвало негативную реакцию со стороны пользователей. Но если разработчики популярных нейросетей внимательно следят за такими случаями и борются с ними, то у их менее известных коллег могут быть совсем иные моральные стандарты.
Инструменты из даркнета
Сегодня в России (как и во всем мире) встречаются разработчики решений на основе ИИ и нейросетей, чьи моральные принципы сложно назвать высокими, говорит Илья Карпук. Они делают доступными цифровые модели, обученные создавать любые изображения, — и те, кто увлекается порнографией, не обходят эту возможность стороной. Причем риск появления запрещенного сексуального контента, созданного при помощи ИИ, особенно велик в даркнете.
— Не секрет, что в столь темном пространстве, как даркнет, встречается детская порнография, — говорит Ильдар Мухаметзянов. — А новые технологии, такие как ИИ и дипфейк, лишь облегчают создание подобного контента.
По словам Ильи Карпука, мониторинг даркнета показывает, что сейчас там не наблюдается всплеска спроса на готовые решения, генерирующие детскую порнографию. Однако там хватает инструментов, которые могут быть применены для создания такого контента — вопрос о том, будет ли он создаваться, остается открытым. Как отмечает собеседник «Известий», куда большей популярностью в даркнете сегодня пользуются услуги по созданию дипфейков на основе нейросетей.
По словам адвоката московской коллегии адвокатов «Бородин и партнеры» Владислава Шурховецкого, дипфейк — это искусственно сгенерированный видеоконтент, в котором участник видеоролика заменяется изображением другого человека. Системы ИИ считывают множество точек человеческого лица и создают «цифровой слепок», который впоследствии соединяют с первоначальным видеоматериалом.
Порой отличить такое видео от настоящего невооруженным глазом невозможно, так как дипфейк-программы способны воспроизвести не только внешний вид человека, но и его голос. Таким образом, в любой уже готовый видеоролик с помощью искусственного интеллекта можно подставить лицо другого человека с сохранением стандартных мимических изменений лица и даже голоса.
— Проблема создания порнографического контента при помощи ИИ и дипфейков является достаточно распространенной, поскольку такие материалы — это простой способ для шантажа жертв, — говорит Шурховецкий. — Вместе с тем даркнет, а также определенные компьютерные навыки позволяют сохранить анонимность и значительно затруднить процесс идентификации злоумышленников.
Тонкости законодательства
Сегодня законодательство как России, так и многих других стран пока не содержит таких понятий, как ИИ и нейросети. По словам Владислава Шурховецкого, такие пробелы в основном связаны с тем, что технологии развиваются и распространяются в обществе, а также привлекаются к повседневным процессам намного быстрее, чем осуществляется процедура законотворчества.
— В связи с этим создание детской порнографии при помощи ИИ будет квалифицироваться по ст. 242.1 («Изготовление и оборот материалов или предметов с порнографическими изображениями несовершеннолетних») УК РФ, — говорит собеседник «Известий».
По этой статье злоумышленникам грозит от двух до восьми лет лишения свободы, а в случае если пострадавшими были дети, не достигшие 14 лет, максимальный срок лишения свободы может быть увеличен до 10 лет. Однако, как отмечает Илья Карпук, в случае изготовления детской порнографии при помощи ИИ возникает необычная правовая коллизия.
Дело в том, что обычно по ст. 242.1 УК РФ злоумышленников привлекают к ответственности уже по факту распространения порнографических материалов. Если же было только изготовление, то тут возникает объект и субъект в виде участника преступления. В таких случаях злоумышленников дополнительно привлекают по более тяжкой квалификации — п. «а» ч. 3 ст. 132 («Насильственные действия сексуального характера в отношении несовершеннолетних») УК РФ.
— Проблема в том, что при создании детской порнографии с применением ИИ формально нет субъекта и субъективной стороны преступления, — говорит Илья Карпук. — Нет пострадавшего, и ничьей психике не нанесен ущерб из-за действий взрослого.
В результате возникает парадоксальная ситуация, когда с точки зрения уголовного процесса состава преступления в изготовлении детской порнографии с помощью ИИ нет до тех пор, пока не возникнет умысел на демонстрацию или распространение результатов третьим лицам. Но в случае распространения уже будет неважно, как именно изготовлен контент — натурно или при помощи ИИ: ответственность всё равно наступит, если эксперты признают его содержание порнографическим.
При обнаружении любого порнографического контента с несовершеннолетними (в том числе созданного при помощи ИИ и нейросетей) специалисты, опрошенные «Известиями», советуют незамедлительно обратиться с заявлением в правоохранительные органы. В нем нужно подробно описать все обстоятельства обнаружения запрещенных материалов, а также приложить сами материалы.
— Обращаться с заявлением необходимо в полицию или Следственный комитет России (СКР), — заключает Ильдар Мухаметзянов. — Также можно обратиться в Роскомнадзор с заявлением о наличии незаконного контента на ресурсе или к владельцу хостинга. Последний напрямую заинтересован в том, чтобы на предоставляемых им серверах не нарушалось законодательство.