Chain-of-Verification Reduces Hallucination in Large Language Models

要約

幻覚と呼ばれる、もっともらしいが不正確な事実情報の生成は、大規模な言語モデルでは未解決の問題です。
私たちは、間違いを正すために言語モデルが与える応答を熟考する能力を研究します。
私たちは、モデルが最初に (i) 初期応答の草案を作成する、検証連鎖 (CoVe) 手法を開発します。
次に、(ii) その草案を事実確認するための確認質問を計画する。
(iii) 回答が他の回答によって偏らないように、これらの質問に独立して回答します。
(iv) 最終的な検証済み応答を生成します。
実験では、CoVe がウィキデータからのリストベースの質問、クローズドブック MultiSpanQA、長文テキストの生成など、さまざまなタスクにわたって幻覚を減少させることを示しました。

要約(オリジナル)

Generation of plausible yet incorrect factual information, termed hallucination, is an unsolved issue in large language models. We study the ability of language models to deliberate on the responses they give in order to correct their mistakes. We develop the Chain-of-Verification (CoVe) method whereby the model first (i) drafts an initial response; then (ii) plans verification questions to fact-check its draft; (iii) answers those questions independently so the answers are not biased by other responses; and (iv) generates its final verified response. In experiments, we show CoVe decreases hallucinations across a variety of tasks, from list-based questions from Wikidata, closed book MultiSpanQA and longform text generation.

arxiv情報

著者 Shehzaad Dhuliawala,Mojtaba Komeili,Jing Xu,Roberta Raileanu,Xian Li,Asli Celikyilmaz,Jason Weston
発行日 2023-09-25 15:25:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク