要約
モデルのスケールが急速に増大し、思考連鎖プロンプトなどの操作方法と組み合わせることで、言語モデルの推論が大幅に改善されました。
同時に、モデルは構成的な一般化に苦労しており、多くの推論ベースのベンチマークでは人間のパフォーマンスとは程遠いものです。
思考連鎖プロンプトの成功を活用し、コンテキストアウェア デコーディング (CAD) からインスピレーションを得て、思考連鎖プロンプトによって誘発されるタイプの推論をさらに促進する入力ベースの対比手法を探索します。
データセットやモデル全体でこれらの結果を安定させるための作業はまだ残っていますが、私たちが発見した改善により、コンテキストを認識した推論のための入力ベースのステアリング方法についてさらなる研究が必要になります。
要約(オリジナル)
Rapidly increasing model scales coupled with steering methods such as chain-of-thought prompting have led to drastic improvements in language model reasoning. At the same time, models struggle with compositional generalization and are far from human performance on many reasoning-based benchmarks. Leveraging the success of chain-of-thought prompting, and also taking inspiration from context-aware decoding (CAD), we explore input-based contrasting methods to further encourage the type of reasoning induced by chain-of-thought prompting. While work remains to stabilize these results across datasets and models, the improvements we find warrant further investigation into input-based steering methods for context-aware reasoning.
arxiv情報
著者 | Jay Shim,Grant Kruttschnitt,Alyssa Ma,Daniel Kim,Benjamin Chek,Athul Anand,Kevin Zhu,Sean O’Brien |
発行日 | 2024-08-27 08:00:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google