RankAlign: A Ranking View of the Generator-Validator Gap in Large Language Models

要約

大規模な言語モデル(LLM)は一般に多くのタスクでより能力が高く正確になっていますが、信頼性の信頼性の基本的なソースがその行動に残っています。
重要な制限の1つは、プロンプトが変更されたときに同じ情報を報告する矛盾です。
この論文では、モデルの生成された回答と、その回答の独自の検証であるジェネレーターバリダーターのギャップとの間の矛盾を検討します。
このギャップを以前の作業よりも厳しい方法で定義します。候補者の回答のセット全体にわたって、ジェネレーターとバリデーターからのスコアの相関関係を期待しています。
この尺度によれば、質問の回答、語彙セマンティクスタスク、次の言葉の予測など、さまざまな設定に大きなギャップが存在することを示しています。
次に、ランキングベースのトレーニング方法であるRankAlignを提案し、すべてのベースライン方法を超えて、平均でギャップを大幅に閉じることを示します。
さらに、このアプローチは、ドメイン外のタスクと語彙項目によく一般的になります。

要約(オリジナル)

Although large language models (LLMs) have become generally more capable and accurate across many tasks, some fundamental sources of unreliability remain in their behavior. One key limitation is their inconsistency at reporting the the same information when prompts are changed. In this paper, we consider the discrepancy between a model’s generated answer and their own verification of that answer, the generator-validator gap. We define this gap in a more stringent way than prior work: we expect correlation of scores from a generator and a validator over the entire set of candidate answers. We show that according to this measure, a large gap exists in various settings, including question answering, lexical semantics tasks, and next-word prediction. We then propose RankAlign, a ranking-based training method, and show that it significantly closes the gap by 31.8% on average, surpassing all baseline methods. Moreover, this approach generalizes well to out-of-domain tasks and lexical items.

arxiv情報

著者 Juan Diego Rodriguez,Wenxuan Ding,Katrin Erk,Greg Durrett
発行日 2025-04-15 16:53:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク