RHO ($ρ$): Reducing Hallucination in Open-domain Dialogues with Knowledge Grounding

要約

対話システムは、事前に訓練された大規模な言語モデルや知識を活用して、流暢で情報量の多い応答を生成することができます。しかし、これらのモデルは、入力ソースによってサポートされていない幻覚のような応答を生成する傾向があり、その応用を大きく妨げているのが現状である。外部知識と対話文脈の間の異質性は、表現学習とソース統合に挑戦し、さらに不誠実さを助長する。この課題を処理し、より忠実な応答を生成するために、本論文では、知識グラフ(KG)からリンクされた実体と関係述語の表現を利用するRHO($rho$)を提示する。本稿では、(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるローカル知識接地、(2)注意メカニズムによるマルチホップ推論能力をRHOに持たせるグローバル知識接地、を提案する。さらに、より良い会話推論のために、KGサブグラフ上のウォークに基づく応答再ランキング技術を考案する。OpenDialKGを用いた実験の結果、我々のアプローチは、自動評価と人間評価の両方で、特に幻覚の低減(FeQAで17.54%)において、最先端手法を大きな差で上回ることが示されました。

要約(オリジナル)

Dialogue systems can leverage large pre-trained language models and knowledge to generate fluent and informative responses. However, these models are still prone to produce hallucinated responses not supported by the input source, which greatly hinders their application. The heterogeneity between external knowledge and dialogue context challenges representation learning and source integration, and further contributes to unfaithfulness. To handle this challenge and generate more faithful responses, this paper presents RHO ($\rho$) utilizing the representations of linked entities and relation predicates from a knowledge graph (KG). We propose (1) local knowledge grounding to combine textual embeddings with the corresponding KG embeddings; and (2) global knowledge grounding to equip RHO with multi-hop reasoning abilities via the attention mechanism. In addition, we devise a response re-ranking technique based on walks over KG sub-graphs for better conversational reasoning. Experimental results on OpenDialKG show that our approach significantly outperforms state-of-the-art methods on both automatic and human evaluation by a large margin, especially in hallucination reduction (17.54% in FeQA).

arxiv情報

著者 Ziwei Ji,Zihan Liu,Nayeon Lee,Tiezheng Yu,Bryan Wilie,Min Zeng,Pascale Fung
発行日 2023-05-12 04:52:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク