Question Decomposition Improves the Faithfulness of Model-Generated Reasoning

要約

大規模言語モデル (LLM) がより困難なタスクを実行するにつれて、その動作の正確さと安全性を検証することが難しくなります。
この問題を解決するための 1 つのアプローチは、LLM に、質問に答える際に段階的な推論を生成させるなど、LLM に自分の推論を外部化するよう促すことです (思考連鎖、CoT)。
この推論により、モデルがタスクを実行するために使用するプロセスを確認できる可能性があります。
ただし、このアプローチは、モデルの実際の推論を忠実に反映する記述された推論に依存していますが、常にそうであるとは限りません。
CoT 推論の忠実性を向上させるために、質問をサブ質問に分解することでモデルに推論を生成させます。
分解ベースの手法は、質問応答タスクで優れたパフォーマンスを実現し、最近提案されたいくつかの指標に関するモデルの述べられた推論の忠実性を向上させながら、場合によっては CoT のパフォーマンスに近づきます。
別のコンテキストでより単純なサブ質問にモデルが答えるように強制することで、CoT のパフォーマンス向上の一部を達成しながら、CoT に比べてモデル生成推論の忠実性が大幅に向上します。
私たちの結果は、モデル生成推論の忠実性を向上させることが可能であることを示しています。
継続的な改善により、LLM の動作の正確さと安全性を検証できる推論につながる可能性があります。

要約(オリジナル)

As large language models (LLMs) perform more difficult tasks, it becomes harder to verify the correctness and safety of their behavior. One approach to help with this issue is to prompt LLMs to externalize their reasoning, e.g., by having them generate step-by-step reasoning as they answer a question (Chain-of-Thought; CoT). The reasoning may enable us to check the process that models use to perform tasks. However, this approach relies on the stated reasoning faithfully reflecting the model’s actual reasoning, which is not always the case. To improve over the faithfulness of CoT reasoning, we have models generate reasoning by decomposing questions into subquestions. Decomposition-based methods achieve strong performance on question-answering tasks, sometimes approaching that of CoT while improving the faithfulness of the model’s stated reasoning on several recently-proposed metrics. By forcing the model to answer simpler subquestions in separate contexts, we greatly increase the faithfulness of model-generated reasoning over CoT, while still achieving some of the performance gains of CoT. Our results show it is possible to improve the faithfulness of model-generated reasoning; continued improvements may lead to reasoning that enables us to verify the correctness and safety of LLM behavior.

arxiv情報

著者 Ansh Radhakrishnan,Karina Nguyen,Anna Chen,Carol Chen,Carson Denison,Danny Hernandez,Esin Durmus,Evan Hubinger,Jackson Kernion,Kamilė Lukošiūtė,Newton Cheng,Nicholas Joseph,Nicholas Schiefer,Oliver Rausch,Sam McCandlish,Sheer El Showk,Tamera Lanham,Tim Maxwell,Venkatesa Chandrasekaran,Zac Hatfield-Dodds,Jared Kaplan,Jan Brauner,Samuel R. Bowman,Ethan Perez
発行日 2023-07-25 04:01:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク