要約
大規模言語モデル (LLM) の進歩により、意思決定を含む幅広いタスクにわたって LLM が広く使用されるようになりました。
これまでの研究では、心理学の観点からLLMの意思決定能力と人間の意思決定能力が比較されてきました。
ただし、これらの研究では、ハイパーパラメータやプロンプトの変動に対する LLM の動作の感度が常に適切に説明されているわけではありません。
この研究では、Binz and Schulz (2023) が研究した Horizon 意思決定タスクにおける LLM のパフォーマンスを調べ、LLM がプロンプトとハイパーパラメーターの変化にどのように反応するかを分析しました。
異なる機能を持つ 3 つの OpenAI 言語モデルを実験することで、入力プロンプトと温度設定に基づいて意思決定能力が変動することが観察されました。
以前の発見とは対照的に、言語モデルは、プロンプトを簡単に調整した後、人間のような探索と活用のトレードオフを示します。
要約(オリジナル)
The advancement of Large Language Models (LLMs) has led to their widespread use across a broad spectrum of tasks including decision making. Prior studies have compared the decision making abilities of LLMs with those of humans from a psychological perspective. However, these studies have not always properly accounted for the sensitivity of LLMs’ behavior to hyperparameters and variations in the prompt. In this study, we examine LLMs’ performance on the Horizon decision making task studied by Binz and Schulz (2023) analyzing how LLMs respond to variations in prompts and hyperparameters. By experimenting on three OpenAI language models possessing different capabilities, we observe that the decision making abilities fluctuate based on the input prompts and temperature settings. Contrary to previous findings language models display a human-like exploration exploitation tradeoff after simple adjustments to the prompt.
arxiv情報
| 著者 | Manikanta Loya,Divya Anand Sinha,Richard Futrell |
| 発行日 | 2023-12-29 05:19:11+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google