要約
STaR (Zelikman et al., 2022) などの大規模言語モデル (LLM) の一般的な自己改善アプローチでは、自己生成されたソリューションに基づいて LLM を繰り返し微調整して、問題解決能力を向上させます。
ただし、これらのアプローチでは、このプロセス中に生成された大量の不正確な解が破棄され、そのような解に含まれる貴重な情報が無視される可能性があります。
この欠点を解決するために、我々は、自己改善プロセス中に生成された正しい解と誤った解の両方を利用して、モデルが生成した解の正しさを判断する検証者をDPOを使用して訓練するV-STaRを提案します。
このベリファイアは、推論時に多くの候補解の中から 1 つの解を選択するために使用されます。
V-STaR を複数の反復で実行すると、推論器と検証器が徐々に改善され、LLaMA2 モデルを使用した一般的なコード生成と数学的推論のベンチマークで、既存の自己改善および検証アプローチと比較してテスト精度が 4% ~ 17% 向上します。
要約(オリジナル)
Common self-improvement approaches for large language models (LLMs), such as STaR (Zelikman et al., 2022), iteratively fine-tune LLMs on self-generated solutions to improve their problem-solving ability. However, these approaches discard the large amounts of incorrect solutions generated during this process, potentially neglecting valuable information in such solutions. To address this shortcoming, we propose V-STaR that utilizes both the correct and incorrect solutions generated during the self-improvement process to train a verifier using DPO that judges correctness of model-generated solutions. This verifier is used at inference time to select one solution among many candidate solutions. Running V-STaR for multiple iterations results in progressively better reasoners and verifiers, delivering a 4% to 17% test accuracy improvement over existing self-improvement and verification approaches on common code generation and math reasoning benchmarks with LLaMA2 models.
arxiv情報
著者 | Arian Hosseini,Xingdi Yuan,Nikolay Malkin,Aaron Courville,Alessandro Sordoni,Rishabh Agarwal |
発行日 | 2024-02-09 15:02:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google