У всех уведу: экономия на ChatGPT оборачивается утечкой данных для россиян
Экономия россиян на ChatGPT может обернуться утечкой их данных — более 2 тыс. объявлений с предложениями разделить подписку на этот чат-бот и другие ИИ-сервисы размещены в Сети, узнали «Известия». Такие схемы популярны из-за экономии, но несут риски: сервисы не поддерживают разграничение доступа, а, значит, один пользователь может видеть чужие запросы, отмечают эксперты. Подробнее — в материале «Известий».
Как пользователи теряют данные
Россияне всё чаще стали покупать подписку на ChatGPT и другие зарубежные ИИ-сервисы сразу на нескольких человек. Сейчас в интернете на русском языке можно найти более 2 тыс. объявлений о продаже таких «групповых» подписок, сообщил «Известиям» директор по продуктам VisionLabs Михаил Кузнецов. Стоимость подписки на сервис составляет порядка 2600 рублей в месяц. Поэтому, если делить ее, например, на четырех человек, то она обойдется на одного пользователя в 650 рублей в месяц.
Правда, такой подход может привести к утечке персональных данных и конфиденциальной информации.
— Большинство ИИ-сервисов не поддерживает функцию разделения ролей между пользователями, поэтому один человек может видеть историю запросов другого. Это делает такие подписки непригодными для работы или личного использования — особенно в случаях, когда человек ведет откровенные разговоры с ChatGPT, например, как с другом или психологом, — отметил эксперт.
ChatGPT — это чат-бот с генеративным искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках. Его используют для генерации текста и изображений, переводов и много другого. Модель постоянно обучается на новых данных. ChatGPT доступен во многих странах.
Он подчеркнул, что большие языковые модели могут «запомнить» введенные данные и позже при других запросах воспроизвести их в ответах другим пользователям. Такие решения используют информацию из диалогов для дообучения.
— Если пользователь введет персональные данные, например, номер телефона, паспорта или банковской карты, они могут попасть в обучающую выборку. Впоследствии другой человек может случайно получить эти данные в ответе, — пояснил Михаил Кузнецов.
Даже если модель формально не сохраняет информацию, риск утечки всё равно остается. Он отметил, что на данный момент практически ничего не известно о механизмах безопасности в таких системах.
— Нейросети не предназначены для хранения секретной информации. В отличие от банковских сервисов или мессенджеров с end-to-end шифрованием здесь нет надежной защиты, при которой доступ к переписке имеют только отправитель и получатель, — добавил он.
Редакция нашла в Сети истории пользователей, столкнувшихся с подобными ситуациями. Один из них рассказал, что зашел в свой аккаунт и обнаружил сотни чужих чатов — некоторые были на иностранных языках, например, на китайском. Он предположил, что его профиль каким-то образом объединился с аккаунтами других людей. При этом он не считал, что его взломали, поскольку чаты были явно из разных стран — Камбоджи, Китая, США и других.
Другой пользователь рассказал, что коллега прислала ему ссылку на беседу в ChatGPT. Когда он вошел в свою учетную запись, то увидел на боковой панели заголовки всех ее чатов. Хотя самих переписок он не читал, ситуация его насторожила — особенно потому, что он и сам раньше делился подобными ссылками и теперь переживает, что кто-то может получить доступ к его темам.
Как сохранить свои данные
Любая технология, используемая в личных целях или для оптимизации бизнес-процессов компании, несет не только пользу, но и определенные риски. Будут ли это сайты, мобильные приложения или ИИ-помощники — везде необходимо соблюдать подход разумного использования и ограниченной передачи персональных данных, информации, содержащей коммерческую тайну, и так далее, считает директор по ИИ-продуктам AppSec Solutions Мария Усачева.
— Спрос на ИИ-сервисы растет и будет увеличиваться с каждым днем, потому что это огромный источник данных, который способен решить запросы пользователя за секунды. Любые «нейронки» обучаются, в том числе на запросах пользователей и их реакции на полученные от модели ответы, — считает эксперт.
По ее словам, на сегодняшний день ведется огромная работа в направлении создания доверенных ИИ-систем. Существуют рекомендации и правила цифровой гигиены для пользователей.
Эксперт по цифровым коммуникациям Ярослав Мешалкин считает, что доверять или не доверять ChatGPT — вопрос личного выбора, но надо понимать, что полной безопасности в цифровом мире сегодня не существует. Любая система может быть взломана, а даже если нет, то полученные данные могут использовать ее владельцы.
— И зря человек считает, что его «личные» запросы никому не интересны: во-первых, их могут использовать в обобщенном виде (те самые «большие данные»), во-вторых, всё чаще случаются истории с отправкой в нейросети чувствительной коммерческой информации, например, таблиц для анализа. А если ChatGPT пользуется военный генерал или топ-менеджер госкорпорации? Учитывая нынешний уровень международных отношений, всё это несет колоссальные риски, — сказал он.
При использовании ИИ-сервисов важно соблюдать ключевые правила цифровой безопасности, заявил руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов. Например, не делиться конфиденциальными данными, критически оценивать ответы, перепроверять их, особенно если речь идет о жизненно важных вопросах, а также использовать официальные приложения и сервисы. К тому же важно заботиться о безопасности учетных данных от ИИ-сервисов: использовать надежные пароли и двухфакторную аутентификацию, резюмировал он.