Uncertainty of Thoughts: Uncertainty-Aware Planning Enhances Information Seeking in Large Language Models

要約

不確実性に直面したとき、情報を求める能力は基本的に重要である。医療診断やトラブルシューティングのような多くの実用的なアプリケーションでは、タスクの解決に必要な情報は最初から与えられているわけではなく、フォローアップの質問(例えば、医師が患者に症状の詳細を尋ねる)をすることで能動的に探し求める必要がある。本研究では、効果的な質問をすることで能動的に情報を求める能力を持つ大規模言語モデルを補強するアルゴリズム、Uncertainty of Thoughts (UoT)を紹介する。UoTは、1)モデルが将来起こりうるシナリオと、それらがどの程度起こりうるかをシミュレーションすることを可能にする不確実性を考慮したシミュレーションアプローチ、2)モデルに情報を求めるインセンティブを与える、情報利得を動機とする不確実性に基づく報酬、3)期待報酬を最大化する方法で質問する最適な質問を選択する報酬伝播スキームを組み合わせる。医療診断、トラブルシューティング、および「20の質問」ゲームに関する実験では、UoTは、直接プロンプトと比較して、複数のLLMにわたるタスク完了の成功率において平均57.8%の性能向上を達成し、効率(すなわち、タスク完了に必要な質問数)も向上させた。

要約(オリジナル)

In the face of uncertainty, the ability to seek information is of fundamental importance. In many practical applications, such as medical diagnosis and troubleshooting, the information needed to solve the task is not initially given, and has to be actively sought by asking follow-up questions (for example, a doctor asking a patient for more details about their symptoms). In this work, we introduce Uncertainty of Thoughts (UoT), an algorithm to augment large language models with the ability to actively seek information by asking effective questions. UoT combines 1) an uncertainty-aware simulation approach which enables the model to simulate possible future scenarios and how likely they are to occur, 2) uncertainty-based rewards motivated by information gain which incentivizes the model to seek information, and 3) a reward propagation scheme to select the optimal question to ask in a way that maximizes the expected reward. In experiments on medical diagnosis, troubleshooting and the ’20 Questions’ game, UoT achieves an average performance improvement of 57.8% in the rate of successful task completion across multiple LLMs compared with direct prompting, and also improves efficiency (i.e., the number of questions needed to complete the task).

arxiv情報

著者 Zhiyuan Hu,Chumin Liu,Xidong Feng,Yilun Zhao,See-Kiong Ng,Anh Tuan Luu,Junxian He,Pang Wei Koh,Bryan Hooi
発行日 2024-02-05 18:28:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク