要約
大規模言語モデル (LLM) は、その優れた機能にもかかわらず、幻覚症状、つまり、事前トレーニング中に見られた事実から逸脱したコンテンツを生成する傾向があります。
我々は、取得した外部知識に基づいた条件付けや追加の微調整を必要としない、事前学習済み LLM を使用して幻覚を軽減するためのシンプルなデコード戦略を提案します。
私たちのアプローチは、LLM の事実の知識が一般に特定のトランスフォーマー層に局所化されていることが示されているという事実を利用して、後の層と前の層を語彙空間に投影することで得られるロジットの差を対比することによって次のトークンの分布を取得します。
この Decoding by Contrasting Layers (DoLa) アプローチにより、事実の知識をより適切に表面化し、誤った事実の生成を減らすことができることがわかりました。
DoLa は、複数選択タスクとオープンエンド生成タスクにわたって真実性を一貫して向上させており、たとえば、TruthfulQA 上の LLaMA ファミリ モデルのパフォーマンスを絶対ポイントで 12 ~ 17% 向上させ、LLM が真実な事実を確実に生成できる可能性を示しています。
要約(オリジナル)
Despite their impressive capabilities, large language models (LLMs) are prone to hallucinations, i.e., generating content that deviates from facts seen during pretraining. We propose a simple decoding strategy for reducing hallucinations with pretrained LLMs that does not require conditioning on retrieved external knowledge nor additional fine-tuning. Our approach obtains the next-token distribution by contrasting the differences in logits obtained from projecting the later layers versus earlier layers to the vocabulary space, exploiting the fact that factual knowledge in an LLMs has generally been shown to be localized to particular transformer layers. We find that this Decoding by Contrasting Layers (DoLa) approach is able to better surface factual knowledge and reduce the generation of incorrect facts. DoLa consistently improves the truthfulness across multiple choices tasks and open-ended generation tasks, for example improving the performance of LLaMA family models on TruthfulQA by 12-17% absolute points, demonstrating its potential in making LLMs reliably generate truthful facts.
arxiv情報
著者 | Yung-Sung Chuang,Yujia Xie,Hongyin Luo,Yoon Kim,James Glass,Pengcheng He |
発行日 | 2023-09-07 17:45:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google