Latent Space Chain-of-Embedding Enables Output-free LLM Self-Evaluation

要約

LLMの自己評価は、展開の信頼性を大幅に改善する可能性のある応答の正確性を推定するLLM自身の能力に依存しています。
この研究トラックでは、LLMが出力のない自己評価を実行できるようにするために、潜在スペースに埋め込み鎖(COE)を提案します。
COEは、推論時間中に生成されたすべての進行性の隠された状態で構成されており、LLMSの潜在的な思考経路として扱うことができます。
LLMSが正しくかつ誤って反応すると、COEの特徴が異なる場合、これらの矛盾はLLM応答の正確性を推定するのに役立つことがわかります。
4つの多様なドメインと7つのLLMでの実験は、私たちの方法の有効性を完全に示しています。
一方、トレーニングなしのラベルフリーの設計意図とミリ秒レベルの計算コストにより、大規模なシナリオでのリアルタイムフィードバックが保証されます。
さらに重要なことは、LLM内の隠れた状態の変化の観点から、LLM応答の正確性に関する興味深い洞察を提供します。

要約(オリジナル)

LLM self-evaluation relies on the LLM’s own ability to estimate response correctness, which can greatly improve its deployment reliability. In this research track, we propose the Chain-of-Embedding (CoE) in the latent space to enable LLMs to perform output-free self-evaluation. CoE consists of all progressive hidden states produced during the inference time, which can be treated as the latent thinking path of LLMs. We find that when LLMs respond correctly and incorrectly, their CoE features differ, these discrepancies assist us in estimating LLM response correctness. Experiments in four diverse domains and seven LLMs fully demonstrate the effectiveness of our method. Meanwhile, its label-free design intent without any training and millisecond-level computational cost ensures real-time feedback in large-scale scenarios. More importantly, we provide interesting insights into LLM response correctness from the perspective of hidden state changes inside LLMs.

arxiv情報

著者 Yiming Wang,Pei Zhang,Baosong Yang,Derek F. Wong,Rui Wang
発行日 2025-03-13 16:16:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク