Искусственный интеллект научили распознавать ложь. Зачем это нужно

. Технологию применят для выявления лукавства клиентов банков и страховых

В университете Северной Каролины искусственный интеллект научили выявлять ложь

Обновлено 22 марта 2024, 09:55
Shutterstock
Фото: Shutterstock

В Университете Северной Каролины в США (North Carolina State University) научили искусственный интеллект (ИИ) распознавать, когда люди обманывают. Данные об этому опубликованы в журнале Journal of Business & Economic Statistics.

ИИ теперь учитывает тот факт, что человек не всегда говорит правду, предоставляя личную информацию. Новый инструмент разработали для использования в ситуациях, когда у людей есть экономический стимул лгать, например при подаче заявки на ипотеку или в попытке снизить страховые взносы.

Shutterstock
Фото: Shutterstock

Как пояснил научную работу портал Techx Plore со ссылкой на авторов статьи, финансовые компании часто используют различные автоматизированные программы, чтобы определить, какие условия ипотечного кредита выбрать для клиента, скорректировать стоимость страховки. В университете разработали алгоритм обучения для ИИ-моделей, позволяющий учитывать экономические стимулы в поведении клиентов компаний. Понимая, какую выгоду хочет получить конкретный человек, машина прогнозирует обстоятельства, при которых он будет обманывать.

«Это уменьшает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нужно проделать дополнительную работу, чтобы лучше понять, где находится порог между «маленькой ложью» и «большой ложью». В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить проблему», — привело издание слова соавтора исследования Мехмета Канера, профессора экономики университета Северной Каролины.

Ранее международная команда ученых под руководством экспертов из испанского Университета Ровиры и Вирхилия (Universitat Rovira i Virgili) выявила, что искусственный интеллект не справляется с грамматикой. Выводы совместного исследования опубликованы на сайте университета.

Эксперимент показал, что люди легко распознают грамматические ошибки в предложении, а ИИ — нет. Это установили после опыта, в котором были задействованы три ведущие системы искусственного интеллекта на основе больших языковых моделей. Протестировали, в частности, и популярный ChatGPT. Люди ответили правильно, в то время как версии ИИ дали много неверных ответов.

Поделиться