要約
事前トレーニング済み言語モデル (PLM) ベースの知識ベースの対話システムは、提供された知識ソースと事実に矛盾する応答を生成する傾向があります。
このような一貫性のない応答では、対話モデルは依存する外部知識を正確に表現できません。
Transformer 内のフィードフォワード ネットワーク (FFN) が事実の知識表現を担当していることを特定した以前の研究に触発され、我々は知識の強化と調整によってそれぞれ FFN の事実表現能力を効率的に向上させる 2 つの方法を調査します。
まず、\textsc{K-Dial} を提案します。これは、知識に基づいた対話入力の特定のパターンを考慮して、{事実に基づく知識表現を強化するためにトランスフォーマーに拡張 FFN を{明示的に}導入します。
さらに、事実一貫性のための強化学習(RLFC)手法を適用し、事実一貫性の好みに関するゴールド知識に合わせて、FFN の応答表現を暗黙的に調整します。
事実の一貫性と応答の対話の質を包括的に評価するために、当社では、洗練されたきめの細かい NLI ベースの指標を含む広範な自動測定と人間による評価を採用しています。
WoW および CMU\_DoG データセットの実験結果は、私たちの方法が事実の知識を伝える FFN モジュールの能力を効率的に強化し、知識に基づく対話システムの事実の一貫性を向上させる有効性を検証することを示しています。
要約(オリジナル)
Pretrained language models (PLMs) based knowledge-grounded dialogue systems are prone to generate responses that are factually inconsistent with the provided knowledge source. In such inconsistent responses, the dialogue models fail to accurately express the external knowledge they rely upon. Inspired by previous work which identified that feed-forward networks (FFNs) within Transformers are responsible for factual knowledge expressions, we investigate two methods to efficiently improve the factual expression capability {of FFNs} by knowledge enhancement and alignment respectively. We first propose \textsc{K-Dial}, which {explicitly} introduces {extended FFNs in Transformers to enhance factual knowledge expressions} given the specific patterns of knowledge-grounded dialogue inputs. Additionally, we apply the reinforcement learning for factual consistency (RLFC) method to implicitly adjust FFNs’ expressions in responses by aligning with gold knowledge for the factual consistency preference. To comprehensively assess the factual consistency and dialogue quality of responses, we employ extensive automatic measures and human evaluations including sophisticated fine-grained NLI-based metrics. Experimental results on WoW and CMU\_DoG datasets demonstrate that our methods efficiently enhance the ability of the FFN module to convey factual knowledge, validating the efficacy of improving factual consistency for knowledge-grounded dialogue systems.
arxiv情報
著者 | Boyang Xue,Weichao Wang,Hongru Wang,Fei Mi,Rui Wang,Yasheng Wang,Lifeng Shang,Xin Jiang,Qun Liu,Kam-Fai Wong |
発行日 | 2023-10-12 14:44:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google