Evaluating Open-Domain Dialogues in Latent Space with Next Sentence Prediction and Mutual Information

要約

オープンドメイン対話における長年にわたる 1 対多の問題は、自動評価方法に重大な課題をもたらします。つまり、特定の会話コンテキストに対してセマンティクスが異なる適切な応答が複数存在する可能性があります。
この課題に取り組むために、私たちは新しい学習ベースの自動評価メトリクス (CMN) を提案します。これは、条件付き変分オートエンコーダ (CVAE) を次文予測 (NSP) 目標で強化し、相互情報 (MI) を採用することで、オープンドメインの対話を堅牢に評価できます。
) 潜在空間内のテキストの意味的類似性をモデル化します。
2 つのオープンドメインの対話データセットに関する実験結果は、特にセマンティクスにおける黄金の参照応答から遠い応答の処理において、幅広いベースラインと比較した場合のこの手法の優位性を示しています。

要約(オリジナル)

The long-standing one-to-many issue of the open-domain dialogues poses significant challenges for automatic evaluation methods, i.e., there may be multiple suitable responses which differ in semantics for a given conversational context. To tackle this challenge, we propose a novel learning-based automatic evaluation metric (CMN), which can robustly evaluate open-domain dialogues by augmenting Conditional Variational Autoencoders (CVAEs) with a Next Sentence Prediction (NSP) objective and employing Mutual Information (MI) to model the semantic similarity of text in the latent space. Experimental results on two open-domain dialogue datasets demonstrate the superiority of our method compared with a wide range of baselines, especially in handling responses which are distant to the golden reference responses in semantics.

arxiv情報

著者 Kun Zhao,Bohao Yang,Chenghua Lin,Wenge Rong,Aline Villavicencio,Xiaohui Cui
発行日 2023-05-30 15:25:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク