要約
不完全な発話書き換え(IUR)に関する既存のファッショナブルな生成方法は、コヒーレントな発話を生成する可能性がありますが、対話の文脈で重要なトークンに焦点を合わせることができないため、無関係で冗長なトークンが書き換えられた発話に含まれることが多いことがよくあります。
さらに、トレーニングデータセットの限られたサイズは、IURモデルの不十分なトレーニングにも寄与します。
最初の問題に対処するために、マルチタスク学習フレームワークEO-IUR(編集操作ガイド不完全な発話書き換え)を提案します。これは、シーケンスラベル付けモジュールによって生成された編集操作ラベルを導入して、重要なトークンに焦点を合わせて生成モデルをガイドします。
さらに、対話を表すためにトークンレベルの不均一なグラフを導入します。
2番目の問題に対処するために、2次元発話増強戦略、つまり操作ベースの不完全な発話増強とLLMベースの歴史的発話増強を編集することを提案します。
3つのデータセットでの実験結果は、EO-IURが、オープンドメインとタスク指向の対話の両方で、以前の最先端(SOTA)ベースラインよりも優れていることを示しています。
コードはhttps://github.com/dewset/eo-iurで入手できます。
要約(オリジナル)
Although existing fashionable generation methods on Incomplete Utterance Rewriting (IUR) can generate coherent utterances, they often result in the inclusion of irrelevant and redundant tokens in rewritten utterances due to their inability to focus on critical tokens in dialogue context. Furthermore, the limited size of the training datasets also contributes to the insufficient training of the IUR model. To address the first issue, we propose a multi-task learning framework EO-IUR (Editing Operation-guided Incomplete Utterance Rewriting) that introduces the editing operation labels generated by sequence labeling module to guide generation model to focus on critical tokens. Furthermore, we introduce a token-level heterogeneous graph to represent dialogues. To address the second issue, we propose a two-dimensional utterance augmentation strategy, namely editing operation-based incomplete utterance augmentation and LLM-based historical utterance augmentation. The experimental results on three datasets demonstrate that our EO-IUR outperforms previous state-of-the-art (SOTA) baselines in both open-domain and task-oriented dialogue. The code will be available at https://github.com/Dewset/EO-IUR.
arxiv情報
著者 | Zhiyu Cao,Peifeng Li,Yaxin Fan,Qiaoming Zhu |
発行日 | 2025-03-20 11:26:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google