要約
深い生成モデルを使用した教師なしテキスト スタイル転送のための一般的なフレームワークを紹介します。
このフレームワークは、内容とスタイルをそれぞれ表す 2 つの潜在コードをさらに含む完全な 4 つ組から部分的に観察される、非並列コーパス内の各文とラベルのペアをモデル化します。
これらのコードは、観察されたデータ内の依存関係を利用することによって学習されます。
そしてそれらを操作して文章を転送します。
私たちのフレームワークは、以前の埋め込みメソッドとプロトタイプメソッドを 2 つの特別な形式として統合できます。
また、アライメントエンコーダや敵対的トレーニングなど、この分野で以前に提案された手法を説明するための原則的な観点も提供します。
さらに 3 つのベンチマークについて実験を行います。
自動評価と人間による評価の結果は両方とも、私たちの方法がいくつかの強力なベースラインと比較して優れた、または競合する結果を達成していることを示しています。
要約(オリジナル)
We present a general framework for unsupervised text style transfer with deep generative models. The framework models each sentence-label pair in the non-parallel corpus as partially observed from a complete quadruplet which additionally contains two latent codes representing the content and style, respectively. These codes are learned by exploiting dependencies inside the observed data. Then a sentence is transferred by manipulating them. Our framework is able to unify previous embedding and prototype methods as two special forms. It also provides a principled perspective to explain previously proposed techniques in the field such as aligned encoder and adversarial training. We further conduct experiments on three benchmarks. Both automatic and human evaluation results show that our methods achieve better or competitive results compared to several strong baselines.
arxiv情報
著者 | Zhongtao Jiang,Yuanzhe Zhang,Yiming Ju,Kang Liu |
発行日 | 2023-08-31 09:29:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google