Chain-of-Thought Prompting for Out-of-Distribution Samples: A Latent-Variable Study

要約

複雑な推論を中間ステップに分割することにより、大規模な言語モデル(LLMS)のコンテキスト内学習(ICL)を改善するための強力な手法として、チェーンオブ思考(COT)プロンプトが浮上しています。
ただし、分布シフトの下でCOTが一般化する能力は、依然としてよく理解されていません。
この作業では、COTの潜在的な変数フレームワークを拡張し、2つのプロトタイプの外部分布(OOD)シナリオでその動作を促し、研究します。
私たちの実験は、COTの推論がトレーニング中に見られる潜在変数に非常に似ているSAMPLESに効果的に一般化することを示していますが、この類似性が低下するにつれてそのパフォーマンスは低下します。
これらの調査結果は、OOD条件下で促すCOTの強みと制限に関する基礎的な洞察を提供し、将来のLLMでより回復力のある推論戦略を開発するための指示を示唆しています。

要約(オリジナル)

Chain-of-Thought (CoT) prompting has emerged as a powerful technique to improve in-context learning (ICL) in large language models (LLMs) by breaking complex reasoning into intermediate steps. However, the ability of CoT to generalize under distribution shift remains poorly understood. In this work, we extend a latent-variable framework for CoT prompting and study its behavior on two prototypical out-of-distribution (OOD) scenarios: (i) the latent variables for CoT steps are permuted into novel combinations, and (ii) the latent variables uniformly scaled by a factor. Our experiments demonstrate that CoT inference generalizes effectively to OOD samples whose latent variables closely resemble those seen during training, but its performance degrades as this similarity decreases. These findings provide foundational insights into the strengths and limitations of CoT prompting under OOD conditions and suggest directions for developing more resilient reasoning strategies in future LLMs.

arxiv情報

著者 Yu Wang,Fu-Chieh Chang,Pei-Yuan Wu
発行日 2025-04-17 14:59:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク