Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В подконтрольной Киеву части Запорожской области повреждена инфраструктура
Мир
Байден заявил о готовности к новым дебатам с Трампом в сентябре
Армия
Силы ПВО за ночь уничтожили 13 украинских беспилотников над пятью регионами РФ
Мир
Пожар произошел в районе аэродрома Харир на севере Ирака
Мир
WSJ узнала о намерении Маска выделять $45 млн в месяц на поддержку Трампа
Мир
Новым официальным представителем МИД Украины стал Георгий Тихий
Мир
Кеннеди-младший встретился с Трампом
Армия
Силы ПВО уничтожили шесть дронов над Орловской, Курской и Брянской областями
Мир
Фицо назвал вступление Украины в НАТО провокацией столкновения альянса с РФ
Армия
Военных группировки войск «Центр» наградили за уничтожение западных танков
Происшествия
Четыре человека ранены при обстреле Белгородской области со стороны ВСУ
Армия
Военнослужащие ВС РФ захватили 17 опорных пунктов и уничтожили до 585 бойцов ВСУ
Мир
Харрис предложила Вэнсу встретиться на дебатах вице-президентов США
Мир
Украинские СМИ сообщили о взрывах в Черниговской области
Мир
Политолог назвал кандидата в вице-президенты США Вэнса прагматиком и реалистом
Недвижимость
Спрос на новостройки бизнес-класса в Москве за год вырос почти на 50%
Мир
Журналист Такер Карлсон заявил о победе Дональда Трампа на выборах
Общество
Более 50% россиян выступают за запрет рекламы вредных продуктов
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
вкл
выкл

Сервисы, предоставляющие возможность генерировать текст или изображения, могут стать мишенью для хакеров, желающих получить личные данные пользователей. В Совфеде полагают, что с точки зрения безопасности пользования, необходимо принять законы, устанавливающие строгие правила сбора и хранения данных пользователей, а также обязательную сертификацию и лицензирование для создателей и владельцев этих технологий. Подробности — в материале «Известий».

Никогда не врет

Профильные эксперты назвали самые опасные угрозы, исходящие от нейросетей и чат-ботов. Поскольку основная задача чат-бота — давать естественные, а не достоверные ответы, он может не отличать правду от неправды, и выдавать вымышленные факты за реальные. В результате пользователь может получить недостоверную информацию и сделать ошибочные выводы, предупреждает директор технического департамента RTM Group Федор Музалевский.

— Проверено на практике, что на вопросы по бухгалтерии и финансовой отчетности нейросеть дает некорректные ответы, — рассказывает Федор Музалевский. — Такие же — по технике безопасности, проектировании зданий и сооружений. Остается только надеяться, что специалисты перепроверяют их, прежде чем считать на их основе дивиденды или создавать чертеж несущей конструкции здания. А чат-боты, как правило, хранят полную историю обращений — и тут уже рассчитывать на анонимность не приходится.

Все существующие сегодня технологические решения по генерации текста или изображений (те же ChatGPT или Midjourney) представляют собой, по сути, сервисы, созданные «поверх» нейросетей. Именно такой формат взаимодействия с нейросетями и является, на взгляд эксперта Центра искусственного интеллекта «СКБ Контур», члена АРПП «Отечественный софт» Дмитрия Иванкова, одним из весомых факторов высокой их популярности.

хакер
Фото: Global Look Press/dpa/Annette Riedl

Иванков обращает внимание, что еще несколько лет назад для начала работы нужно было иметь хотя бы начальные знания в этой области и навык программирования. Сейчас же эти технологии доступны самому широкому кругу пользователей. В этой доступности и лежит источник потенциальных уязвимостей. Впрочем, они не слишком отличаются от тех, которые угрожают при совершении заказа в интернет-магазине или регистрации на сайте покупки билетов. Разница, пожалуй, только в объеме данных, которые пользователь передает сторонним сервисам, и которые затем могут быть использованы не по назначению или «слиты» третьим лицам.

Из официальных заявлений разработчиков известно, что модель СhatGPT 3.5/4.0 не обучается на новых данных и запросах. Однако проверить это невозможно, так как технологически структура полностью закрыта. А большие данные, генерируемые людьми — очень ценный ресурс для ИИ. Поэтому руководитель Института искусственного интеллекта Университета Иннополис Рамиль Кулеев советует поостеречься формировать запросы в закрытые модели такие, как ChatGPT и аналоги, содержащие информацию, разглашение которой может принести вред как частным лицам, так и организациям.

— Буквально недавно эксперты в области ИИ и ИБ выявили новый тип угрозы, связанный с развитием ChatGPT как продукта — плагины, — рассказывает Рамиль Кулеев. — Через них люди встраивают функционал чат-бота в свои личные аккаунты в различных сервисах. Опасность использования плагинов с точки зрения кибербезопасности называется prompt injection. Суть ее в том, что некоторые запросы к нейросети, подключенной к какому-нибудь сервису, которые сформулированы определённым образом, создают критические уязвимости в контуре безопасности.

Начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд обращает внимание, что новые риски могут быть заложены в самом алгоритме работы нейросетей. Случай с prompt injection, когда пользователи обходят ограничения, заложенные создателями ИИ, поучителен. В феврале, едва Microsoft представил свой чат-бот Bing, обычный студент взломал его, просто введя команду «игнорировать предыдущие инструкции». В итоге чат-бот выдал логику своей работы, кодовое имя, внутренние регламенты и другую конфиденциальную информацию.

рецепт
Фото: Global Look Press/dpa/Lisa Forster

— Такие атаки опасны тем, что «всезнающий» ИИ, если заставить его забыть ограничения, может, к примеру, снабдить пользователя опасными знаниями — условно, рецептом взрывчатки в домашних условиях, — говорит Алексей Дрозд. — Но для конечного пользователя опаснее так называемые «галлюцинации» ИИ, когда нейросеть по какой-то причине с уверенностью генерирует несуществующие факты. Пользователь априори верит написанному, ведь ИИ «никогда не врет», и может продолжить распространять фейк. А чем больше такой фейк вирусится в интернете, тем больше вероятность, что следующая версия ИИ, обучаясь на открытом корпусе текстов в сети, примет его за правду (ведь упоминание встречается часто) и продолжит утверждать это в следующих ответах.

Наконец, информация из нейросетей может использоваться в мошеннических целях. В Китае уже был случай уголовного преследования за распространение фейковых новостей, сгенерированных ChatGPT. Легко представить, что ИИ могут использовать для информационных атак — генерировать правдоподобные сообщения, скажем, о катастрофах, военных действиях и т. п., подкрепляя тексты и искусственно созданными изображениями.

Сегодня нужно быть осторожными, не доверять нейросетям на 100% и перепроверять любую информацию от них, подчеркивает специалист группы исследования безопасности банковских систем, Positive Technologies Юрий Ряднина. А все потому, что арт-нейросети уже позволяют генерировать фейки, почти неотличимые от реальности (Midjourney), а ChatGPT, например, имеет склонность к «галлюцинациям» — когда модель не знает что ответить и вынуждена врать.

Опасный посредник

С нейросетями правила безопасности те же, что и в интернете в целом. Нужно отдавать себе отчет, что именно вы им собираетесь прислать, рекомендует эксперт «СёрчИнформ». Доподлинно неизвестно, хранят ли они архивы пользовательских запросов, обезличивают ли их и какова вероятность, что данные одного пользователя попадут в выдачу для другого. Потенциально это возможно, так как запросы могут использоваться для дополнения обучающего корпуса нейросети.

данные
Фото: ИЗВЕСТИЯ/Павел Бедняков

Поэтому, прежде чем отправлять в чат-бот свои личные данные (или любую другую конфиденциальную информацию), ответьте себе на два вопроса: что будет, если я потеряю эти данные навсегда? Что будет, если эти данные станут известны посторонним? Другая сложность в том, что в России большинство чат-ботов недоступны напрямую — только через VPN, прокси или адаптированные Telegram-чаты, напоминает Алексей Дрозд. Нужно понимать, что при такой модели доступа к нейросети ваши данные отправляются в нее не напрямую, а через «посредника». Соответственно, этот «посредник» может их заполучить. Этот риск тоже стоит учитывать.

Доцент кафедры информационных технологий и автоматизированных систем ПНИПУ Даниил Курушин отмечает, что проблема еще и в том, что можно написать текст от чужого имени, делая его максимально похожим на то, что писал бы (или говорил) сам человек. Хоть нейросеть и «не понимает» сказанного, но она хорошо подражает другим текстам. Это и может ввести в заблуждение. Аналогично, можно сформировать изображение, похожее на реальное, но вымышленное.

Как указывает Курушин, еще большей опасностью является возможность генерации программного кода, ориентированного на взлом информационных систем. Системы защиты в общем случае делятся на основанные на шаблонах и основанные аномалиях. Первые выявляют вредоносный код подобно тому, как это делают системы типа «Антиплагиат». Нейрогенерированный текст не похож ни на какой другой и поэтому, не распознается в общем случае такими системами.

Сходным образом может быть сгенерирован программный код обхода защиты, непохожий на все предыдущие и, соответственно, неизвестный программам защиты сети, — говорит Курушин. — Системы, основанные на аномалиях, могли бы спасти ситуацию, но нейросеть способна обойти и их. Особенно неприятно то, что злоумышленник может смоделировать атакуемую систему у себя и, используя алгоритмы обучения с подкреплением, заранее настроить атаку. Разумеется, не стоят на месте и системы защиты. Нейросетевые анализаторы траффика могут выявлять вредоносный код даже в зашифрованном состоянии.

дата-центр
Фото: ТАСС/Юрий Смитюк

Доцент кафедры автоматики и телемеханики ПНИПУ Антон Каменских замечает, что есть несколько общих рисков для любой системы с машинным обучением.

— Это дискриминация на основе «черного ящика»: мы точно не знаем, какие параметры заложены в нейросеть при обучении, в результате, если использовать ответы чат-бота для оценки чего либо, то есть очень большой риск скрытых манипуляций, так что доверять оценку нейросети точно не стоит. Второй момент, который связан с той же проблемой — это приписывание нейросети свойств объективности. Уверенность в том, что нейросеть всегда права, очень легко можно использовать для проведения кибератак.

Интеллект искусственный, безопасность суррогатная

По мнению аналитиков RTM Group, на данный момент нельзя придумать абсолютную защиту от угроз, исходящих от нейросетей и чат-ботов. Можно лишь ограничить на уровне законодательства доступ определенному кругу лиц (например, несовершеннолетним). Подобное уже применяется в нашей стране для обычных ресурсов, нужно лишь расширить нормативную базу. Угрозы от администрации нейросети менее вероятны, но гораздо более опасны, подчеркивают эксперты. Прежде всего, это сбор и распространение персональных данных, в том числе биометрических — фото и голоса. Гипотетически, посредством нейросетей может распространяться вредоносный контент как в виде вирусов, так и в виде каких-либо политических материалов.

— От данного вида угроз возможно защититься законодательно — все операторы должны получить лицензию и так или иначе контролировать контент и нести за него ответственность, — говорит Федор Музалевский. — И готовиться нужно уже сейчас — в перспективе нескольких месяцев мы ожидаем массового появления данного вида угроз.

компании
Фото: Global Look Press/dpa/Sebastian Gollnow

Сенатор Артем Шейкин напоминает, что в ряде стран уже существуют законы, обязывающие компании, создающие нейросети и чат-боты, уведомлять пользователей о том, как они используют их данные, а также давать людям возможность удалять свои данные из системы.

На взгляд заместителя председателя Совета по развитию цифровой экономики при Совете Федерации, чтобы принимать законы по ограничениям, нужно установить путь создания цифрового кодекса, зафиксировать терминологию в цифровом праве, также необходимо категоризировать виды ИИ на предмет рисков для безопасности, которые они могут нести. Например, выделить системы, которые несут высокий, средний или минимальный риск. Также нужны единые виды тестирования на безопасность, которые должны проводить компании-разработчики ИИ и определение видов доступа к данным для проведения аудитов и оценок.

— Возможно, данные стандарты будут различаться в зависимости от отрасли применения. Например, применение ИИ в отрасли здравоохранения требует самого пристального внимания, — говорит Артем Шейкин. — Нормативные акты, принимаемые в сфере ИИ, должны выстраивать баланс между инновациями и регулированием, чтобы развитие ИИ не имело негативных последствий от неконтролируемого применения.

Сенатор считает, что уже сейчас в России нужны изменения Уголовного кодекса РФ, конкретизирующие ответственность за несанкционированное использование персональных данных и их утечку.

УК
Фото: ИЗВЕСТИЯ/Александр Казаков

Такие утечки представляют серьезную угрозу, в данный момент идет работа над окончательным текстом проекта федерального закона. Рассчитываю, что он будет внесен в ближайшее время в Государственную Думу, — говорит сенатор. — Сейчас в Совете Федерации и Государственной Думе уже ведется работа по разработке законодательной базы в отрасли ИИ. Цифровой кодекс может появиться в России уже в скором времени.

Руководитель Центра информационной безопасности Университета Иннополис Михаил Серегин считает, что маркировка данных, изготавливаемых нейросетями, необходима. Технически в изображении можно сохранить много дополнительной информации, но эффективнее хранить там только «штампик» авторства конкретной нейросети и временную метку.

— По нашей оценке, наиболее эффективным будет обязать владельцев нейросетей маркировать изготавливаемый контент либо предоставлять в открытый доступ инструмент для проверки, был ли конкретный текст, изображение или видео сгенерированы в этой нейронной сети, — говорит эксперт. — Остальную ответственность должны нести те, кто осознанно использует нейроконтент деструктивно, например, в целях клеветы.

Вместе с тем, генеральный директор компании «Фогстрим» Алексей Романов полагает, что сегодня не стоит ограничивать ни нейросети, ни чат-боты, созданные российскими разработчиками. На его взгляд, следует уделить внимание, прежде всего, образованию пользователя для обеспечения безопасности. Необходимо разъяснять всеми возможными методами опасность передачи своих персональных данных чат-ботам и нейросетям, считает эксперт.

Прямой эфир