Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Представитель МИД РФ сравнила поведение стран Запада с бешенным ежом
Мир
Каллас призвала решать проблемы вокруг Гренландии в рамках НАТО
Мир
Посол РФ в Дании заявил о взятии Западом российских судов «на прицел»
Мир
Медведчук анонсировал возможное объявление Зеленским тотальной мобилизации
Мир
Глава РФПИ призвал фон дер Ляйен не злить и не провоцировать Трампа
Общество
Диакон рассказал о посте и богослужениях в Крещенский сочельник
Происшествия
В Ейском районе произошло аварийное отключение электроэнергии
Мир
В результате пожара в пакистанском ТЦ погибли минимум три человека
Мир
Стармер назвал угрозу введения пошлин США в отношении стран Европы ошибочной
Мир
Трамп призвал взять под арест причастных к использованию при Байдене автопера
Мир
Экстренное совещание послов ЕС по Гренландии и тарифам США назначили на 18 января
Армия
Силы ПВО за три часа уничтожили 34 украинских дрона над территорией России
Мир
В Молдавии назвали заявление Санду об объединении с Румынией капитуляцией
Мир
Уолтц не увидел нарушений США международного права в ситуации с Гренландией
Спорт
Сборная Нигерии завоевала бронзу Кубка африканских наций
Происшествия
Пожар в торговом центре в Ангарске локализован на площади 3 тыс. кв. м
Мир
Фон дер Ляйен заявила о риске ухудшения отношений ЕС и США из-за пошлин

Эксперт рассказал о безопасном использовании нейросетей

IT-эксперт Драченин посоветовал не загружать в нейросети важные данные
0
EN
Фото: ИЗВЕСТИЯ/Павел Волков
Озвучить текст
Выделить главное
Вкл
Выкл

Эксперт по информационной безопасности Юрий Драченин посоветовал пользователям нейросетей не загружать туда критически важные данные.

«Всё, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано», — подчеркнул эксперт в беседе с Lenta.Ru в пятницу, 31 января.

Касается это, по его словам, коммерческих тайн, бизнес-документов, персональных данных и даже обычных вопросов, поскольку «контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии».

Специалист также отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда существуют риски уязвимостей или просто банального человеческого фактора. Он рассказал, что всё новое неизменно вызывает интерес и в таких ситуациях «белые» хакеры становятся похожи на «черных», желая проверить систему на предмет уязвимости. В результате «сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», добавил Драченин.

30 января американская компания по кибербезопасности Wiz обнаружила в интернете базу данных пользователей китайской модели ИИ DeepSeek. В открытом доступе появились более миллиона строк конфиденциальной информации, включая историю запросов пользователей, а также цифровые программные ключи.

Читайте также
Прямой эфир