Эксперт рассказал о безопасном использовании нейросетей

Эксперт по информационной безопасности Юрий Драченин посоветовал пользователям нейросетей не загружать туда критически важные данные.
«Всё, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано», — подчеркнул эксперт в беседе с Lenta.Ru в пятницу, 31 января.
Касается это, по его словам, коммерческих тайн, бизнес-документов, персональных данных и даже обычных вопросов, поскольку «контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии».
Специалист также отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда существуют риски уязвимостей или просто банального человеческого фактора. Он рассказал, что всё новое неизменно вызывает интерес и в таких ситуациях «белые» хакеры становятся похожи на «черных», желая проверить систему на предмет уязвимости. В результате «сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», добавил Драченин.
30 января американская компания по кибербезопасности Wiz обнаружила в интернете базу данных пользователей китайской модели ИИ DeepSeek. В открытом доступе появились более миллиона строк конфиденциальной информации, включая историю запросов пользователей, а также цифровые программные ключи.