要約
ChatGPT などの大規模言語モデル (LLM) は、タスク指向のダイアログや質問応答など、多くのダウンストリーム タスクに対して人間のような流暢な応答を生成できます。
ただし、LLM を現実世界のミッション クリティカルなアプリケーションに適用することは、主に幻覚を生成する傾向があり、外部の知識を使用できないため、依然として困難なままです。
プラグアンドプレイモジュール。
私たちのシステムは、LLM に統合された外部知識 (タスク固有のデータベースに格納されているなど) に基づいた応答を生成させます。
また、効用関数によって生成されたフィードバック (LLM によって生成された応答の事実スコアなど) を使用してモデル応答を改善するために、LLM プロンプトを繰り返し修正します。
LLM-Augmenter の有効性は、タスク指向の対話とオープン ドメインの質問応答という 2 種類のミッション クリティカルなシナリオで経験的に検証されています。
LLM-Augmenter は、応答の流暢さと有益性を犠牲にすることなく、ChatGPT の幻覚を大幅に軽減します。
ソースコードとモデルを公開しています。
要約(オリジナル)
Large language models (LLMs), such as ChatGPT, are able to generate human-like, fluent responses for many downstream tasks, e.g., task-oriented dialog and question answering. However, applying LLMs to real-world, mission-critical applications remains challenging mainly due to their tendency to generate hallucinations and inability to use external knowledge.This paper proposes a LLM-Augmenter system, which augments a black-box LLM with a set of plug-and-play modules. Our system makes the LLM generate responses grounded in consolidated external knowledge, e.g., stored in task-specific databases. It also iteratively revises LLM prompts to improve model responses using feedback generated by utility functions, e.g., the factuality score of a LLM-generated response. The effectiveness of LLM-Augmenter is empirically validated on two types of mission-critical scenarios, task-oriented dialog and open-domain question answering. LLM-Augmenter significantly reduces ChatGPT’s hallucinations without sacrificing the fluency and informativeness of its responses. We make the source code and models publicly available.
arxiv情報
著者 | Baolin Peng,Michel Galley,Pengcheng He,Hao Cheng,Yujia Xie,Yu Hu,Qiuyuan Huang,Lars Liden,Zhou Yu,Weizhu Chen,Jianfeng Gao |
発行日 | 2023-03-01 17:21:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google