Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В ЕП предупредили о последствиях для ЕС из-за ответа Трампу на пошлины
Спорт
ХК «Колорадо» одержал победу над «Вашингтоном» в матче НХЛ со счетом 5:2
Экономика
В РАН назвали главные угрозы внедрения ИИ в финансовой сфере
Мир
В Турции могут изменить правила системы «всё включено» в отелях
Мир
Евродепутат от Болгарии оценил шансы партии президента страны на выборах
Мир
Bloomberg сообщило о возможности Европы использовать активы США
Общество
В ЛДПР предложили ограничить рост тарифов ЖКХ уровнем инфляции
Мир
Разведсамолет ВМС США выполнил полет над Черным морем в сторону Сочи
Мир
Офис Орбана обвинил Брюссель в подготовке к ядерной войне
Наука и техника
Ученые восстановили историю растительности Камчатки за 5 тыс. лет
Мир
Ким Чен Ын снял с поста вице-премьера КНДР Ян Сын Хо на публичной церемонии
Общество
В КПРФ предложили повысить до 45% налоговую ставку на доходы свыше 50 млн рублей
Общество
Камчатка попросит федеральную помощь для ликвидации последствий циклона
Мир
Политолог Колташов назвал Гренландию платой ЕС за обман США
Общество
УК могут оштрафовать до 300 тыс. рублей за несвоевременную уборку снега
Экономика
В России было ликвидировано 35,4 тыс. предприятий общепита за 2025 год
Общество
Синоптики спрогнозировали гололедицу и до –4 градусов в Москве 20 января

В РАН назвали главные угрозы внедрения ИИ в финансовой сфере

0
EN
Фото: ИЗВЕСТИЯ/Юлия Майорова
Озвучить текст
Выделить главное
Вкл
Выкл

Сегодня более 70% финансовых организаций используют искусственный интеллект. Чаще всего его применяют в платежах, кредитном анализе, страховании и управлении активами. Такие данные приводит доктор экономических наук Института экономики РАН Дмитрий Кочергин в статье «Основные направления использования искусственного интеллекта в финансовой сфере», с которой ознакомились «Известия».

Массовое внедрение нейросетей сопровождается серьезными рисками. Усиливается угроза кибератак. Генеративные модели расширяют возможности злоумышленников по созданию фишинговых писем, вредоносного ПО и захвату устройств, что может привести к краже данных, вымогательству и мошенничеству.

Другой источник угроз — атаки с отравлением данных, когда злоумышленники вмешиваются в массивы, на которых обучаются модели, чтобы изменить их поведение и нарушить работу систем.

Отдельная проблема — предвзятость алгоритмов. ИИ способен воспроизводить и усиливать искажения в данных, что ведет к дискриминации при страховании и кредитовании, ограничению доступа уязвимых групп к финансовым услугам.

Существенные риски связаны и с зависимостью рынка от узкого круга поставщиков моделей. Банки часто используют одни и те же технологии и данные, поэтому алгоритмы ведут себя схожим образом. В результате разные игроки автоматически принимают близкие решения, одновременно покупают или продают активы и двигают цены в одном направлении. Формального сговора нет, но эффект для рынка — рост волатильности и риск манипуляций.

В негативном сценарии это может привести к девальвации рабочей силы, росту дефолтов, ускорению инфляции и подрыву финансовой стабильности.

Подробнее читайте в эксклюзивном материале «Известий»:

Бешеный алгоритм: в РАН назвали топ уязвимостей внедрения ИИ в финансовой сфере

Читайте также
Прямой эфир