Self-Harmonized Chain of Thought

要約

思考連鎖 (CoT) プロンプトは、大規模な言語モデルが中間ステップを介して複雑な推論を実行できることを明らかにします。
CoT プロンプトは主に 3 つのアプローチに分類されます。
最初のアプローチでは、「ステップごとに考えてみましょう」のような単純なプロンプトを利用して、答えを導き出す前に一連の思考プロセスを生成します。
2 番目のアプローチでは、人間が作成した段階的なデモンストレーションを利用して、モデルの推論プロセスをガイドします。
3 つ目は、「ステップごとに考えてみましょう」によって推論されたデモンストレーションの生成を自動化します。このアプローチは推論エラーにつながる場合があり、誤解を招く影響を軽減するためにデモンストレーションを多様化する必要性を強調しています。
しかし、多様なデモンストレーションは効果的な表現に課題をもたらします。
この研究では、自己調和型の思考連鎖促進法である ECHO を提案します。
多様な解決策を均一かつ効果的な解決策パターンに統合します。ECHO は 3 つの推論ドメイン全体で最高の全体的なパフォーマンスを示します。

要約(オリジナル)

Chain-of-Thought (CoT) prompting reveals that large language models are capable of performing complex reasoning via intermediate steps. CoT prompting is primarily categorized into three approaches. The first approach utilizes straightforward prompts like “Let’s think step by step” to generate a sequential thought process before yielding an answer. The second approach makes use of human-crafted, step-by-step demonstrations to guide the model’s reasoning process. The third automates the generation of reasoned demonstrations with the ‘Let’s think step by step’.This approach sometimes leads to reasoning errors, highlighting the need to diversify demonstrations to mitigate its misleading effects. However, diverse demonstrations pose challenges for effective representations. In this work, we propose ECHO, a self-harmonized chain-of-thought prompting method. It consolidates diverse solution paths into a uniform and effective solution pattern.ECHO demonstrates the best overall performance across three reasoning domains.

arxiv情報

著者 Ziqi Jin,Wei Lu
発行日 2024-09-06 06:57:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク