MAC-Tuning: LLM Multi-Compositional Problem Reasoning with Enhanced Knowledge Boundary Awareness

要約

大規模な言語モデル(LLMS)の広範な適用により、幻覚として知られる存在しない事実を生成する問題は、注目を集めています。
LLM信頼の推定を強化する以前の研究は、主に単一の問題設定に焦点を当てています。
ただし、複数の問題に正確に同時に回答する必要がある、より挑戦的な多問題設定の下での内部パラメーター化された知識の境界に関するLLM認識は、採用されていないままです。
このギャップを埋めるために、命令データの微調整中の回答予測と信頼の推定の学習を分離する新しい方法、複数の回答、および信頼性の段階的調整(Mac-Tuning)を紹介します。
広範な実験は、私たちの方法が平均精度でベースラインを最大25%上回ることを示しています。

要約(オリジナル)

With the widespread application of large language models (LLMs), the issue of generating non-existing facts, known as hallucination, has garnered increasing attention. Previous research in enhancing LLM confidence estimation mainly focuses on the single problem setting. However, LLM awareness of its internal parameterized knowledge boundary under the more challenging multi-problem setting, which requires answering multiple problems accurately simultaneously, remains underexplored. To bridge this gap, we introduce a novel method, Multiple Answers and Confidence Stepwise Tuning (MAC-Tuning), that separates the learning of answer prediction and confidence estimation during fine-tuning on instruction data. Extensive experiments demonstrate that our method outperforms baselines by up to 25% in average precision.

arxiv情報

著者 Junsheng Huang,Zhitao He,Sandeep Polisetty,Qingyun Wang,May Fung
発行日 2025-04-30 16:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク