要約
事実性は、情報を求める対話において重要な要件です。システムは、応答が意味のあるものとなり、システムに提供される知識と一致するように、ユーザーのクエリに応答する必要があります。
しかし、最新の大規模言語モデルのほとんどは幻覚に悩まされています。つまり、知識源によってサポートされない、または知識源に矛盾する応答を生成します。
この問題を軽減し、情報探索対話システムの忠実性を高めるために、行動調整を適用して情報探索対話を支援するシンプルかつ効果的な方法である BeInfo を紹介します。
3 つの標準データセットに依存して、BeInfo で調整されたモデルは、ゼロショット方式で適用された場合、BeInfo 調整中に表示されるデータセットとドメイン、さらには未表示のドメインの両方について、知識ソースにかなり忠実になることを示します。
さらに、BeInfo で調整された 3B パラメーターを持つモデル (Flan-T5 など) は、実際の「本番」会話からのデータで強力なパフォーマンスを示し、そのような現実的なドメイン内対話の限られた量で調整された場合には GPT4 を上回るパフォーマンスを示すことを示します。
要約(オリジナル)
Factuality is a crucial requirement in information seeking dialogue: the system should respond to the user’s queries so that the responses are meaningful and aligned with the knowledge provided to the system. However, most modern large language models suffer from hallucinations, that is, they generate responses not supported by or contradicting the knowledge source. To mitigate the issue and increase faithfulness of information-seeking dialogue systems, we introduce BeInfo, a simple yet effective method that applies behavioural tuning to aid information-seeking dialogue. Relying on three standard datasets, we show that models tuned with BeInfo} become considerably more faithful to the knowledge source both for datasets and domains seen during BeInfo-tuning, as well as on unseen domains, when applied in a zero-shot manner. In addition, we show that the models with 3B parameters (e.g., Flan-T5) tuned with BeInfo demonstrate strong performance on data from real `production’ conversations and outperform GPT4 when tuned on a limited amount of such realistic in-domain dialogues.
arxiv情報
著者 | Evgeniia Razumovskaia,Ivan Vulić,Pavle Marković,Tomasz Cichy,Qian Zheng,Tsung-Hsien Wen,Paweł Budzianowski |
発行日 | 2023-11-16 11:25:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google