Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Уровень воды у села Абатское в Тюменской области вырос на 7 см
Мир
МИД Таджикистана рекомендовал гражданам временно не выезжать в РФ
Происшествия
Четыре человека погибли в ДТП с грузовиком в Самарской области
Мир
Шольц вновь исключил отправку крылатых ракет Taurus Украине
Общество
Жителя Салавата арестовали по подозрению в избиении сожительницы до смерти
Мир
В парламенте Германии раскритиковали работу фон дер Ляйен на посту главы ЕК
Экономика
В Минэке назвали основные факторы роста доходов населения в I квартале
Наука и техника
В России создали первую в мире космическую станцию для наблюдения за Арктикой
Мир
В Армении два человека погибли и 20 пострадали при падении автобуса в овраг
Экономика
Безработица в РФ в марте обновила исторический минимум в 2,7%
Происшествия
В московском парке нашли тело мужчины
Мир
В Норвегии туриста оштрафовали на $1,1 тыс. за беспокойство моржа
Авто
Автоэксперт назвал указывающие на поддельную автозапчасть признаки
Общество
В Москве суд арестовал продюсера агентства Reuters Габова
Экономика
Импортозамещенный SJ-100 прилетел в Жуковский для подготовки к испытаниям
Мир
В МИД Германии прокомментировали призыв Китая к расследованию теракта на СП
Общество
В Москве раскрыли совершенное 12 лет назад убийство
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
вкл
выкл

Для искусственного интеллекта (ИИ) создан новый метод обучения, который поможет ему лучше учитывать тот факт, что люди далеко не всегда говорят правду, предоставляя личную информацию. Разработка может оказаться полезной в тех случаях, когда есть экономический стимул для лжи, — к примеру, при подаче ипотечных заявок или попытках снизить страховые взносы. Подробности о том, как ИИ научился распознавать ложь и какие последствия могут быть у этого достижения, читайте в материале «Известий».

Мотив для обмана

Сегодня искусственный интеллект используется в самых разных сферах, где необходима поддержка принятия решений. Как правило, программы на его основе используют для прогнозирования математические алгоритмы, основанные только на статистике. Однако возникает сложность: такой подход создает экономические стимулы для людей лгать — к примеру, при подаче заявок на ипотеку или попытках снизить страховые взносы.

Для того чтобы решить эту проблему, исследователи из Университета штата Северная Каролина (США) разработали новый инструмент для обучения ИИ. Он помогает программному обеспечению (ПО) на базе искусственного интеллекта лучше учитывать тот фактор, что люди не всегда говорят правду, предоставляя личную информацию.

клавиатура
Фото: Global Look Press/Keystone Press Agency/Eduardo Parra

Моделирование, подтверждающее концепцию, показало, что модифицированный ИИ действительно стал лучше обнаруживать ложную информацию от пользователей. В настоящее время исследователи намерены сдать новые параметры обучения ИИ общедоступными, чтобы разработчики могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации, — отметил соавтор исследования Мехмет Канер. — Однако маленькая ложь всё равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между маленькой и большой ложью. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы».

Механизмы обучения

Работа алгоритмов наподобие того, что разработали американские ученые, основывается на обучении нейронных сетей на исторических данных, говорит в беседе с «Известиями» ведущий эксперт по сетевым угрозам и web-разработчик компании «Код безопасности» Константин Горбунов. Он отмечает, что специалисты, по всей видимости, имели доступ к реальным данным, когда люди лгали в ситуациях, где у них был экономический интерес, — к примеру, завышали свои доходы при подаче заявки на кредит.

Имея набор из нескольких подобных кейсов, исследователи могут составить портрет «лгуна», а затем научить ИИ распознавать идентичные ситуации, — рассказывает Константин Горбунов. — В техническом плане для составления подобного портрета можно использовать различные методы машинного обучения, такие как анализ тональности речи, распознавание паттернов поведения и обработка естественного языка.

голос
Фото: Global Look Press/dpa/Marijan Murat

Старший исследователь данных в «Лаборатории Касперского» Дмитрий Аникин дополняет, что исследователи представили алгоритм машинного обучения, который натренирован предсказывать, имеет ли пользователь мотивацию лгать по фиксированному набору факторов. По сути, это хитрая математическая формула, которая дает вероятностную оценку лжи по фиксированным параметрам.

Как бы то ни было, новая разработка способна найти применение в банковской и страховой отраслях, однако может пригодиться и в других областях. Так, по словам Константина Горбунова, модернизированный ИИ может проверять заявки на получение различный льгот и пособий в социальной сфере, а также стать помощником в рекрутинге — например, для проверки достоверности опыта и навыков в резюме. Кроме того, новинка может быть актуальна при оценке контрагентов для ведения бизнеса.

— Крупным дистрибуторским компаниям при продаже товаров очень важно оценить, какие условия оплаты уместно предложить контрагентам, — поясняет ИИ-эксперт и аналитик данных Александр Малахов. — Такие ситуации также попадают в категорию моделирования рисков, которые способна снизить новая модель ИИ.

Правоохранительный аспект

Тот факт, что ИИ учится выявлять обман, поднимает вопрос, сможет ли он однажды (частично или полностью) заменить детектор лжи. Этот прибор определяет, лжет ли человек, по его психологической реакции на вопросы. По словам Александра Малахова, это происходит так: эксперт на полиграфе устанавливает базовую линию поведения и реакцию человека на вопросы, где заведомо известна реакция и легко установить, говорит ли он правду (например, сколько будет 2+2).

детектор лжи
Фото: ТАСС/URA.RU/Екатерина Сычкова

— Затем эксперт начинает задавать уже интересующие его вопросы и при помощи сравнения с базовой линией старается определить, лжет ли человек, — говорит собеседник «Известий». — Похожий процесс происходит и при обучении искусственного интеллекта.

Как поясняет Александр Малахов, сначала собирается обучающая выборка, а затем проводится «предсказание» ответов на тестовой части. В результате сегодня ИИ может выступать в роли дополнительного инструмента для повышения точности детектора лжи за счет большего количества информации, а также помощника в унификации рекомендаций для экспертов по полиграфу. Однако, по словам эксперта, заменить его полностью не получится, да и выводы должен делать все-таки человек, а не машина.

В свою очередь, Константин Горбунов отмечает, что модернизированный искусственный интеллект пока не заменит ни человеческий анализ, ни детекторы лжи в силу своей новизны, а значит, высоки вероятности ошибки. Впрочем, ИИ может найти применение при комбинированном использовании всех технических возможностей обнаружения лжи, отмечает эксперт.

— Распознавание лжи искусственным интеллектом всё еще находится на ранней стадии и требует дальнейшего развития и исследования, — подчеркивает директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.

Обратная сторона

Несмотря на то что ИИ, распознающий ложь, открывает довольно широкие возможности в самых разных сферах, специалисты, опрошенные «Известиями», видят в нем и определенные риски. Так, Александр Малахов обращает внимание, что пользователи всё дальше отдаляются от человеческого общения и уникальные ситуации, требующие детального внимания от сотрудников компаний, будут чаще заканчиваться негативным исходом для получателей услуг.

звонок
Фото: ИЗВЕСТИЯ/Михаил Терещенко

Людям не очень нравится, когда с ними говорит ИИ в службе поддержки и когда важные события в их жизни (например, получение ипотеки) определяются искусственным интеллектом, — говорит эксперт.

Кроме того, Константин Горбунов обращает внимание, что распознавание лжи при помощи искусственного интеллекта — это новая технология, которая не проходила проверку «боевой» эксплуатацией. Поэтому ИИ на данном этапе способен допускать ошибки при распознавании лжи, что, в свою очередь, может привести к неправильным выводам и потенциальным негативным последствиям. В частности, подобные ошибки могут повлиять на репутацию человека или вынудить ответственных лиц принять неправильные решения из-за недостоверной информации от нейросети.

Если это будет происходить слишком часто, то начнется выдача очень рискованных кредитов (а банки будут думать, что они с низким риском), — рассказывает Александр Малахов. — Когда их наберется огромное количество, это может привести к очередному кризису, подобному тому, с которым мы столкнулись в 2008 году.

По мнению Александра Кобозева, из-за всех этих рисков в ближайшее время банки и финансовые организации будут сочетать сразу несколько видов проверок — как традиционные, так и с применением искусственного интеллекта. Дмитрий Аникин заключает, что модифицированный ИИ может выступать дополнительным инструментом принятия решений о тех или иных действиях, но говорить о полноценном решении проблемы распознавания лжи с помощью алгоритмов машинного обучения пока не представляется возможным.

Прямой эфир