Multi-level Adaptive Contrastive Learning for Knowledge Internalization in Dialogue Generation

要約

知識に基づいた対話生成は、外部知識を組み込んでコンテキストを補完することで、テキストの劣化の問題を軽減することを目的としています。
ただし、モデルはこの情報を人間のような方法で応答に取り込むことができないことがよくあります。
代わりに、提供された知識のセグメントを一般的な応答に挿入するだけです。
その結果、生成される応答は退屈で一貫性がなく、対話性に欠ける傾向があります。これは、縮退の問題がまだ解決されていないことを意味します。
この研究では、このようなコピー形式の退化が主に弱い尤度目標によるものであることが初めてわかりました。この目標により、モデルは重複に基づく表面的なパターンマッチングで知識セグメントを複製するだけで目標を「騙す」ことができます。
この課題を克服するために、否定的な例を動的にサンプリングし、その後トークン レベルとシーケンス レベルの両方で退化動作にペナルティを与えるマルチレベル適応対照学習 (MACL) フレームワークを提案します。
WoW データセットに関する広範な実験により、さまざまな事前トレーニング済みモデルにわたるアプローチの有効性が実証されました。

要約(オリジナル)

Knowledge-grounded dialogue generation aims to mitigate the issue of text degeneration by incorporating external knowledge to supplement the context. However, the model often fails to internalize this information into responses in a human-like manner. Instead, it simply inserts segments of the provided knowledge into generic responses. As a result, the generated responses tend to be tedious, incoherent, and in lack of interactivity which means the degeneration problem is still unsolved. In this work, we first find that such copying-style degeneration is primarily due to the weak likelihood objective, which allows the model to ‘cheat’ the objective by merely duplicating knowledge segments in a superficial pattern matching based on overlap. To overcome this challenge, we then propose a Multi-level Adaptive Contrastive Learning (MACL) framework that dynamically samples negative examples and subsequently penalizes degeneration behaviors at both the token-level and sequence-level. Extensive experiments on the WoW dataset demonstrate the effectiveness of our approach across various pre-trained models.

arxiv情報

著者 Chenxu Yang,Zheng Lin,Lanrui Wang,Chong Tian,Liang Pang,Jiangnan Li,Qirong Ho,Yanan Cao,Weiping Wang
発行日 2023-10-17 12:53:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク