Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Медведев предупредил о возможных рисках в случае прихода «нового Байдена»
Армия
Белоусов заявил о продвижении ВС России на купянском направлении
Мир
Канцлер ФРГ подал почти 5 тыс. уголовных заявлений против интернет-критиков
Спорт
«Спартак» уступил «Авангарду» со счетом 5:7 в матче КХЛ
Мир
В Китае при строительстве подземного перехода погибли пять человек
Мир
Историк заявил о способности Британии продержаться 10 дней в случае конфликта
Мир
Посол Украины в США рассказала о нерешенных вопросах после встречи в Майами
Общество
Адвокат рассказала об ожиданиях Лурье от ВС РФ по сделке с квартирой Долиной
Происшествия
Мирный житель пострадал в результате атаки БПЛА в белгородской Борисовке
Мир
Ушаков рассказал об отличиях текущей администрации США от предыдущей
Общество
МВД РФ опровергло сообщения СМИ о рекомендациях отказаться от биометрии
Армия
Стало известно о конфликтах в рядах ВСУ из-за попыток боевиков покинуть позиции
Общество
Путин на предстоящей неделе встретится с героями Отечества
Мир
СМИ сообщили о задержании 13 военных после попытки переворота в Бенине
Мир
Нетаньяху анонсировал встречу с Трампом в декабре
Мир
Рябков призвал США к сдержанности в отношении Венесуэлы
Мир
В Верховной раде назвали критической ситуацию с поставками вооружения Украине

Эксперт рассказал о безопасном использовании нейросетей

IT-эксперт Драченин посоветовал не загружать в нейросети важные данные
0
EN
Фото: ИЗВЕСТИЯ/Павел Волков
Озвучить текст
Выделить главное
Вкл
Выкл

Эксперт по информационной безопасности Юрий Драченин посоветовал пользователям нейросетей не загружать туда критически важные данные.

«Всё, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано», — подчеркнул эксперт в беседе с Lenta.Ru в пятницу, 31 января.

Касается это, по его словам, коммерческих тайн, бизнес-документов, персональных данных и даже обычных вопросов, поскольку «контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии».

Специалист также отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда существуют риски уязвимостей или просто банального человеческого фактора. Он рассказал, что всё новое неизменно вызывает интерес и в таких ситуациях «белые» хакеры становятся похожи на «черных», желая проверить систему на предмет уязвимости. В результате «сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», добавил Драченин.

30 января американская компания по кибербезопасности Wiz обнаружила в интернете базу данных пользователей китайской модели ИИ DeepSeek. В открытом доступе появились более миллиона строк конфиденциальной информации, включая историю запросов пользователей, а также цифровые программные ключи.

Читайте также
Прямой эфир