Confidence Matters: Revisiting Intrinsic Self-Correction Capabilities of Large Language Models

要約

大規模言語モデル (LLM) の最近の成功により、その自己修正機能に対する関心が高まっています。
この論文は、LLM の本質的な自己修正に関する包括的な調査を示し、その実現可能性についての進行中の議論に対処することを試みます。
私たちの研究により、自己修正プロセス中に重要な潜在的要因であるLLMの「自信」が特定されました。
この要素を見落とすと、モデル自体が過剰に批判され、自己修正の有効性に関して信頼性の低い結論が得られる可能性があります。
私たちは、LLM が自分自身の応答の「信頼性」を理解する能力を持っていることを実験的に観察しました。
これは、LLM が自分自身の「自信」を評価し、本質的な自己修正を促進するように設計された、「If-or-Else」(IoE) を促すフレームワークを開発する動機になります。
私たちは広範な実験を実施し、IoE ベースのプロンプトが最初の回答と比較して自己修正された回答の精度に関して一貫した改善を達成できることを実証しました。
私たちの研究は、LLM の自己修正に影響を与える根本的な要因を明らかにするだけでなく、「自信」を持って自己修正能力を効率的に向上させるための IoE プロンプト原理を利用する実践的なフレームワークも紹介します。
コードは https://github.com/MBZUAI-CLeaR/IoE-Prompting.git で入手できます。

要約(オリジナル)

The recent success of Large Language Models (LLMs) has catalyzed an increasing interest in their self-correction capabilities. This paper presents a comprehensive investigation into the intrinsic self-correction of LLMs, attempting to address the ongoing debate about its feasibility. Our research has identified an important latent factor – the ‘confidence’ of LLMs – during the self-correction process. Overlooking this factor may cause the models to over-criticize themselves, resulting in unreliable conclusions regarding the efficacy of self-correction. We have experimentally observed that LLMs possess the capability to understand the ‘confidence’ in their own responses. It motivates us to develop an ‘If-or-Else’ (IoE) prompting framework, designed to guide LLMs in assessing their own ‘confidence’, facilitating intrinsic self-corrections. We conduct extensive experiments and demonstrate that our IoE-based Prompt can achieve a consistent improvement regarding the accuracy of self-corrected responses over the initial answers. Our study not only sheds light on the underlying factors affecting self-correction in LLMs, but also introduces a practical framework that utilizes the IoE prompting principle to efficiently improve self-correction capabilities with ‘confidence’. The code is available at https://github.com/MBZUAI-CLeaR/IoE-Prompting.git.

arxiv情報

著者 Loka Li,Zhenhao Chen,Guangyi Chen,Yixuan Zhang,Yusheng Su,Eric Xing,Kun Zhang
発行日 2024-05-13 11:01:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク