Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning

要約

大規模言語モデル (LLM) は、言語翻訳から複雑な推論に至るまで、さまざまなタスクにわたってその機能を実証してきました。
人間の行動と偏見を理解して予測することは、人工知能 (AI) 支援システムが有用な支援を提供するために不可欠ですが、これらのモデルがこれを達成できるかどうかは未解決の問題です。
この論文では、LLM の推論機能と生成機能を活用して、2 つの連続した意思決定タスクにおける人間の行動を予測することで、このギャップに対処します。
これらのタスクには、搾取的アクションと探索的アクションのバランスをとること、遅延したフィードバックの処理が含まれます。どちらも現実の意思決定プロセスをシミュレートするために不可欠です。
LLM のパフォーマンスを、人間の経験に基づく意思決定を模倣するコグニティブ インスタンス ベース学習 (IBL) モデルと比較します。
私たちの調査結果は、LLM がフィードバックを迅速に組み込んで予測精度を高めることに優れていることを示しています。
対照的に、認知 IBL モデルは、人間の探索行動をより適切に説明し、損失回避バイアス、つまり経験が限られていても、最適な選択を見つけるために探索するのではなく、ステップコストのペナルティが少ない次善の目標を選択する傾向を効果的に捉えます。

この結果は、LLM とコグニティブ アーキテクチャを統合する利点を強調しており、この相乗効果によって人間の複雑な意思決定パターンのモデリングと理解を強化できる可能性があることを示唆しています。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated their capabilities across various tasks, from language translation to complex reasoning. Understanding and predicting human behavior and biases are crucial for artificial intelligence (AI) assisted systems to provide useful assistance, yet it remains an open question whether these models can achieve this. This paper addresses this gap by leveraging the reasoning and generative capabilities of the LLMs to predict human behavior in two sequential decision-making tasks. These tasks involve balancing between exploitative and exploratory actions and handling delayed feedback, both essential for simulating real-life decision processes. We compare the performance of LLMs with a cognitive instance-based learning (IBL) model, which imitates human experiential decision-making. Our findings indicate that LLMs excel at rapidly incorporating feedback to enhance prediction accuracy. In contrast, the cognitive IBL model better accounts for human exploratory behaviors and effectively captures loss aversion bias, i.e., the tendency to choose a sub-optimal goal with fewer step-cost penalties rather than exploring to find the optimal choice, even with limited experience. The results highlight the benefits of integrating LLMs with cognitive architectures, suggesting that this synergy could enhance the modeling and understanding of complex human decision-making patterns.

arxiv情報

著者 Thuy Ngoc Nguyen,Kasturi Jamale,Cleotilde Gonzalez
発行日 2024-08-05 16:16:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク