Перейти к основному содержанию
Реклама
Прямой эфир
Общество
В Москве суд арестовал продюсера агентства Reuters Габова
Мир
СМИ сообщили об урегулировании певицой Бритни Спирс дела об опеке
Культура
Путин наградил Стаса Михайлова орденом «За заслуги в культуре и искусстве»
Мир
Минимум 20 человек погибли при взрыве склада боеприпасов в Камбодже
Мир
Лидер демократов в сенате США назвал ультраправых республиканцев мерзкими
Общество
В Госдуме предложили ввести миграционный режим высылки
Мир
Захарова назвала дезинформацией заявление США о нежелании России и КНР реформ ООН
Мир
Австралия выделила $100 млн на новый пакет помощи Украине
Мир
На Украине начали производство по иску против рады из-за отмены выборов президента
Общество
IT-эксперт рассказал о популярных схемах кредитных мошенников
Происшествия
В Дагестане локомотив насмерть сбил шедшую вдоль путей девочку
Мир
В Париже «желтые жилеты» вышли на протесты против политики Макрона
Авто
Дилеры оценили предстоящее подорожание Lada Vesta
Экономика
Импортозамещенный SJ-100 прилетел в Жуковский для подготовки к испытаниям
Мир
В МИД Германии прокомментировали призыв Китая к расследованию теракта на СП
Общество
В Москве раскрыли совершенное 12 лет назад убийство
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
вкл
выкл

На компанию Илона Маска OpenAI подали в суд за неправомерный сбор конфиденциальной информации в интернете, включая личные данные пользователей. Как сообщают СМИ, разработчики ИИ-бота ChatGPT используют личные данные миллионов людей. Эксперты утверждают, что во многих российских компаниях ChatGPT уже используется. Подробности — в материале «Известий».

Скандалы вокруг чатботов

Разработчик чат-бота ChatGPT, американская компания OpenAI, столкнулась с коллективным иском по поводу предполагаемой кражи персональных данных, сообщило агентство Bloomberg. Истцы считают, что фирма Илона Маска нарушила права миллионов интернет-пользователей, используя их публично доступные данные для обучения больших языковых моделей, которые являются основой ИИ-алгоритмов. Проблема давно вышла за пределы США и всё больше затрагивает россиян, учитывая, что и отечественные разработки в области искусственного интеллекта выходят в открытый доступ.

Руководитель отдела аналитики «СёрчИнформ» Алексей Парфентьев обращает внимание, что OpenAI собирает разнообразную информацию о пользователях, в том числе те запросы, которые пользователь вводит в чат-бот. Согласно заявленной официальной политике, компания использует переписку с чат-ботом для развития сервиса, в том числе для дальнейшего обучения модели. Поэтому основное правило, которое должны соблюдать пользователи и компании, — относиться к ChatGPT как к экспериментальному, а не привычному сервису, и не делиться с ним конфиденциальной информацией. Так как речь идет об ИИ, даже сами создатели временами лишь примерно представляют, какие данные и как будут использованы.

Open AI
Фото: Global Look Press/dpa/Silas Stein

Ведущий инженер CorpSoft24 Михаил Сергеев утверждает, что в России подобные данные можно безнаказанно использовать и шансов выиграть суд тут нет. Однако технический директор направления ИИ Softline Digital Максим Милков разъясняет, что в России уже много лет действует законодательство о защите персональных данных и организации, которые их собирают, хранят и обрабатывают, обязаны выполнять процедуры по защите от их неправомерного использования.

— Банки, медицинские и иные организации тщательно очищают внутренние данные перед их использованием для обучения чат-ботов и нейросетей, — говорит Максим Милков. — Однако внутренние данные часто обогащаются за счет внешних источников, и нередки случаи, когда персональные данные оказываются доступны для нейросетей после скачивания их из Сети.

Управляющий RTM Group Евгений Царёв, напротив, считает, что в РФ до сих пор нет никакого регулирования защиты от подобных угроз. Пока, по его словам, есть только усилия групп энтузиастов и отдельных специалистов по определению угроз, связанных с ИИ, попытки классифицировать их и защититься от них.

— Единственный базовый вариант защиты, который предлагают всем, — это стараться не допускать утечек конфиденциальной информации и внимательно следить, какие данные вы отдаете чат-ботам, — говорит Евгений Царёв.

клавиатура
Фото: TASS/Zuma

Надо понимать, что главная опасность лежит в чрезмерном доверии к решениям нейронных сетей. Для защиты от взлома логики ИИ на сегодняшний день применяют различные промежуточные преобразования входных данных, способные распознать триггеры и проанализировать некорректную реакцию со стороны нейросети, указывает управляющий RTM Group.

Руководитель направления инфраструктурных решений Rubbles Александр Фонарёв предупреждает, что данные могут попасть к нейросети на двух этапах — при ее обучении и в процессе дообучения при взаимодействии с пользователем. В первом случае в набор данных для обучения может попасть буквально всё, что выложено в открытый доступ, поэтому эффективных механизмов защиты пока что нет. Во втором случае нейросеть собирает информацию из запросов, которые ей отправляют пользователи. В итоге к ней может попасть, к примеру, внутренняя информация компании, сотрудники которой используют эту нейросеть для решения рабочих задач. Но как раз в этом случае снизить риск утечки возможно. Решением может быть переход от облачных сервисов на основе нейросетей на работающие в закрытом контуре — то есть не передающие запросы на удаленные серверы, а обрабатывающие их «на месте», подчеркивает специалист.

пользователь
Фото: ИЗВЕСТИЯ/Алексей Майшев

Неизбежное дело

Исследование уязвимостей нейросетей было опубликовано в журнале IEEE Transactions on Neural Networks and Learning Systems. Специалисты обнаружили, как внедрить «заднюю дверь» (backdoor) в нейронные сети для манипуляции их поведением. Backdoor — это скрытый триггер, который активируется при определенных условиях. Скажем, если на изображении появляется определенный символ, нейронная сеть может выдать неверный ответ или передавать конфиденциальную информацию.

​Эксперт по информационной безопасности компании Axenix Евгений Качуров отмечает, что подобное внедрение «задних дверей» в нейронные сети может быть очень рискованно. Эксперт выделил следующие принципы, которым должен следовать ИИ. Прежде всего, недопустимо использовать непроверенные источники данных для обучения системы из-за возможности манипулирования системой. Далее попадающая в систему информация и информация, предоставляемая пользователю, должна собираться и предоставляться исключительно на законных основания.

Максим Малков напоминает, что сегодня нейронные сети уже применяются во многих сферах жизни. Наличие уязвимостей может дать злоумышленникам инструмент влияния на системы контроля доступа и безопасности, финансовые сервисы, государственные услуги и т. д.

хакер
Фото: ИЗВЕСТИЯ/Александр Казаков

— Однако хорошая новость в том, что зачастую нейросетям не доверяют принимать окончательное решение, а используют их в качестве систем поддержки, — говорит Максим Малков. — В таких сценариях есть шанс, что оператор заметит некорректное поведение нейросети и примет правильное решение. Для защиты от подобных угроз необходимо использовать системы, которые проводят многофакторную верификацию процессов, обеспечивают комплекс мероприятий как по обнаружению уязвимостей нейросетевых и других компонентов, так и по недопущению их использования злоумышленниками.

В научно-техническом центре ГРЧЦ объясняют, что развитие чат-ботов без использования персональных данных вполне возможно, важен контекст и цель — какой продукт в итоге необходимо получить. В зависимости от функциональности боты могут либо выполнять простые задачи (осуществлять обработку звонков, отвечать на общие вопросы, перенаправлять пользователя на оператора), либо самообучаться и вести полноценный диалог на основе информации, полученной в результате обучения. Такая информация вполне может включать в себя персональные данные.

Прямой эфир