Юрист объяснила опасность мошенничества при помощи нейросети
Нейросети активно используются злоумышленниками, поскольку они существенно облегчают совершение преступления и повышают охват преступной деятельности. На это указала преподаватель Moscow Digital School, зампред Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России Екатерина Ипполитова в беседе с «Известиями» в среду, 15 февраля.
Так она прокомментировала информацию о появлении в РФ нового способа обмана россиян при помощи нейросети. Так, злоумышленники начали создавать фишинговые ресурсы, маскируя их под сервисы, позволяющие купить доступ к чат-боту на базе искусственного интеллекта (ИИ) ChatGPT.
Как отметила эксперт, количество фишинговых и мошеннических ресурсов увеличивается каждый год — в 2022-м количество таких сайтов увеличилось на 15% по сравнению с 2021 годом.
«Использование искусственного интеллекта мошенниками в целях облегчения создания фишингового ресурса с большой долей вероятности приведет к увеличению количества таких ресурсов с появлением ChatGPT. Нельзя однозначно утверждать, что преступления, связанные с мошенническим доступом к ChatGPT, станут массовыми, поскольку спрос на такие услуги вызван кратковременной популярностью данного сервиса. При этом нейросети уже используются преступниками, поскольку они существенно облегчают совершение преступления и повышают охват преступной деятельности», — пояснила Ипполитова.
По ее словам, использование искусственного интеллекта в преступной деятельности существенно повышает риск распространения явления под названием «преступление как услуга» (CaaS). В таком случае преступники продают вредоносные программы, созданные при помощи ИИ, для совершения преступлений другими лицами.
Юрист уточнила, что сегодня в мире не наблюдается обширного принятия изменений в законодательство в связи с использованием ИИ в преступных целях. В то же время основная сложность возникает при расследовании киберпреступлений, совершаемых с использованием ИИ. Это связано с тем, что нейросети позволяют совершать преступление с минимальным количеством следов в силу анонимности.
В свою очередь, ведущий юрисконсульт юридической компании ЭБР Анна Сарбукова отметила, что одним из способов борьбы с созданием ChatGPT неправомерного контента может стать маркировка результатов деятельности нейросети. Подобная практика применяется в Китае — компании, которые разрабатывают такое программное обеспечение, должны маркировать созданный нейросетью контент специальным водяным знаком.
«Таким образом, любой пользователь сможет увидеть, что, например, сайт был создан посредством функционала нейросети и при наличии других признаков фишингового сайта дополнительное информирование пользователя о том, что сайт был создан с помощью функционала нейросети, должно вызвать подозрения у пользователя такого сайта», — объяснила специалист.
14 февраля старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов рассказал, в чем опасность чат-ботов с искусственным интеллектом. Так, сгенерированные ими ответы на вопросы могут быть недостоверными, при этом выглядеть крайне убедительными.