Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В Кремле призвали не допускать провокационных действий в отношении Кубы
Общество
Песков отметил устойчивость экономики РФ на фоне снижения нефтегазовых доходов
Армия
Над территорией России за ночь сбили 17 украинских беспилотников
Мир
Захарова назвала инцидент с катером у берегов Кубы агрессивной провокацией США
Мир
В США не исключили возможности нанесения удара по верховному лидеру Ирана
Армия
Расчеты «Мста-Б» уничтожили пункты временной дислокации ВСУ в зоне СВО
Общество
На Камчатке произошло землетрясение магнитудой 6.5
Мир
Орбан обвинил Зеленского в попытках втянуть Венгрию в конфликт на Украине
Мир
Ким Чен Ын заявил о решении КНДР задачи ядерного cдерживания
Мир
В КНДР заявили о готовности к нормализации отношений с США
Общество
В Санкт-Петербурге задержали вымогавших деньги лже-сотрудников ФСБ
Мир
В Китае предрекли поражение Запада в случае передачи Украине ядерного оружия
Спорт
ХК «Лос-Анджелес» проиграл «Вегасу» в дебютном матче Панарина
Общество
В ОВД приняли на вооружение модернизированный по опыту спецоперации ППК-20
Мир
Мема назвал законной целью РФ совместное производство дронов Британией и Украиной
Общество
Число фишинговых атак накануне 8 Марта и 23 Февраля выросло вдвое

Юрист рассказал о правовых рисках использования нейросети в бизнесе

Юрист Ивлев: ИИ несет риски для бизнеса из-за ошибок алгоритмов
0
EN
Фото: ИЗВЕСТИЯ/Юлия Майорова
Озвучить текст
Выделить главное
Вкл
Выкл

Масштабное внедрение искусственного интеллекта в российском корпоративном секторе начало выявлять обратную сторону технологического прогресса. То, что позиционировалось как инструмент оптимизации и прорывной эффективности, на практике оборачивается юридическими рисками и ощутимыми потерями для бизнеса. Об этом сообщил юрист и правозащитник предпринимателей Антон Ивлев «Известиям» 15 октября.

По словам юриста, корень проблемы кроется не в самих алгоритмах, а в иллюзии управленцев, что ответственность за действия машины можно делегировать самой нейросети. Слепое доверие технологиям приводит к ошибкам, которые обходятся слишком дорого.

В качестве примера эксперт привел американский случай, когда адвокат доверился ChatGPT и представил в суд заключение с вымышленными ссылками на дела. Итог — крупный штраф и репутационные потери. Аналогичная ситуация произошла с экс-адвокатом Майклом Коэном, который использовал Google Bard. Эти инциденты показали: документ, созданный с помощью ИИ, должен быть проверен человеком, иначе это «профессиональное самоубийство».

«Многие полагают, что машина объективна. Это глубочайшее заблуждение. Алгоритм лишь обрабатывает данные, предоставленные человеком, со всеми нашими стереотипами и предрассудками», — отмечает Ивлев.

Примеры из Британии и США показали дискриминацию по расовому и социальному признаку в автоматизированных системах, а в Евросоюзе (ЕС) впервые запретили использование системы SyRI, которая чрезмерно контролировала получателей пособий. Машина не создала предрассудки — она их усилила и автоматизировала.

Как уточнил Ивлев, главные риски сегодня — внутренние. Сотрудники, работающие с неконтролируемыми ИИ-инструментами, становятся источником угроз. Автоматизация приводит к сокращениям, нарушения процедуры увольнения гарантирует судебные споры, а размывание ответственности за результаты работы нейросети создает новые юридические риски. Кроме того, утечки коммерческой информации через внешние ИИ-сервисы подрывают безопасность бизнеса.

«Искусственный интеллект из технологической инновации превращается в серьезный правовой вызов, требующий не слепого внедрения, а вдумчивого юридического сопровождения. Без четких внутренних регламентов, персональной ответственности сотрудников и трезвой оценки возможностей алгоритмов эйфория от прогресса неизбежно сменится горечью от судебных издержек. Сегодня главная задача любого руководителя — не гнаться за трендами, а выстроить систему, в которой машина остается эффективным инструментом, но окончательное решение и полную ответственность всегда несет человек», — заключил Ивлев.

Первый замглавы комитета Государственной думы (ГД) РФ по информационной политике, информационным технологиям и связи Антон Ткачев 4 октября сообщил, что необходимо установить четкие границы для искусственного интеллекта (ИИ), особенно в этических и моральных аспектах взаимодействия с гражданами. Уточнялось, что такой орган, наделенный соответствующими полномочиями, мог бы объективно оценивать уровень внедрения ИИ, его этические аспекты и эффективность.

Все важные новости — в канале «Известия» в мессенджере МАХ

Читайте также
Прямой эфир