Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Путин рассказал о планах РФ и Армении по сотрудничеству в сфере энергетики
Мир
Украина получила от ЕС последний в 2025 году транш в размере €2,3 млрд
Армия
Бойцы группировки «Север» показали работу новейшей огнеметной системы ТОС-2
Мир
Лавров и глава МИД Венесуэлы обсудили эскалационные действия США в Карибском море
Мир
В Кремле прокомментировали слова Вэнса о «прорыве» США в переговорах
Общество
Экс-министра торговли Подмосковья приговорили к условному сроку за нападение
Общество
Песков назвал гибель генерал-лейтенанта Сарварова страшным убийством
Мир
Нетаньяху пообещал Ирану «жесткий ответ» в случае действий против Израиля
Спорт
Олимпийский чемпион Сергей Калинин подписал контракт с ЦСКА
Мир
Мишустин и Турчин обсудили совместные проекты в энергетике и промышленности
Общество
Вильфанд анонсировал предновогоднюю оттепель в Москве
Армия
Средства ПВО сбили 12 украинских БПЛА над Крымом и акваторией Черного моря
Общество
Россиянам напомнили о преждевременном начислении пенсий из-за новогодних праздников
Спорт
Футболист сборной Замбии едва не получил травму шеи во время празднования гола
Происшествия
Подпольное производство табачной продукции было ликвидировано в Санкт-Петербурге
Мир
США заплатят нелегальным мигрантам $3 тыс. за самодепортацию до Нового года
Общество
«Народный фронт» передал технику и оборудование частям Южного военного округа

Эксперт рассказал о безопасном использовании нейросетей

IT-эксперт Драченин посоветовал не загружать в нейросети важные данные
0
EN
Фото: ИЗВЕСТИЯ/Павел Волков
Озвучить текст
Выделить главное
Вкл
Выкл

Эксперт по информационной безопасности Юрий Драченин посоветовал пользователям нейросетей не загружать туда критически важные данные.

«Всё, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано», — подчеркнул эксперт в беседе с Lenta.Ru в пятницу, 31 января.

Касается это, по его словам, коммерческих тайн, бизнес-документов, персональных данных и даже обычных вопросов, поскольку «контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии».

Специалист также отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда существуют риски уязвимостей или просто банального человеческого фактора. Он рассказал, что всё новое неизменно вызывает интерес и в таких ситуациях «белые» хакеры становятся похожи на «черных», желая проверить систему на предмет уязвимости. В результате «сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», добавил Драченин.

30 января американская компания по кибербезопасности Wiz обнаружила в интернете базу данных пользователей китайской модели ИИ DeepSeek. В открытом доступе появились более миллиона строк конфиденциальной информации, включая историю запросов пользователей, а также цифровые программные ключи.

Читайте также
Прямой эфир