Conversation Style Transfer using Few-Shot Learning

要約

自然言語に対する従来のテキスト スタイル転送アプローチは、文脈情報を考慮せずに文レベルのスタイル転送に焦点を当てており、スタイルは属性 (形式など) で記述されます。
タスク指向の対話などの会話にスタイル転送を適用する場合、コンテキストが重要な役割を果たす可能性があり、会話でスタイル属性を定義するのが難しいことが多いため、既存のアプローチにはこれらの制限があります。
この論文では、モデルがターゲットスタイルの対話例のみを観察することでスタイルトランスファーを実行することを学習する、少数ショット学習問題として会話スタイルトランスファーを紹介します。
スタイルフリーの対話をピボットとしてタスクを解決するための、新しい文脈内学習アプローチを提案します。
人間による評価では、マルチターン コンテキストを組み込むことで、発話レベルのスタイル転送と比較して適切性と意味の正しさを向上させながら、モデルがターゲット スタイルに一致できることが示されています。
さらに、会話スタイルの転送が下流のタスクにも役立つことを示しています。
マルチドメインの意図分類タスクの結果は、テスト データのスタイルと一致するようにトレーニング データのスタイルを転送した後の F1 スコアの改善を示しています。

要約(オリジナル)

Conventional text style transfer approaches for natural language focus on sentence-level style transfer without considering contextual information, and the style is described with attributes (e.g., formality). When applying style transfer on conversations such as task-oriented dialogues, existing approaches suffer from these limitations as context can play an important role and the style attributes are often difficult to define in conversations. In this paper, we introduce conversation style transfer as a few-shot learning problem, where the model learns to perform style transfer by observing only the target-style dialogue examples. We propose a novel in-context learning approach to solve the task with style-free dialogues as a pivot. Human evaluation shows that by incorporating multi-turn context, the model is able to match the target style while having better appropriateness and semantic correctness compared to utterance-level style transfer. Additionally, we show that conversation style transfer can also benefit downstream tasks. Results on multi-domain intent classification tasks show improvement in F1 scores after transferring the style of training data to match the style of test data.

arxiv情報

著者 Shamik Roy,Raphael Shu,Nikolaos Pappas,Elman Mansimov,Yi Zhang,Saab Mansour,Dan Roth
発行日 2023-02-16 15:27:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク