Improved Paraphrase Generation via Controllable Latent Diffusion

要約

言い換え生成は、特定のテキストの高品質で多様な表現を生成することを目指しており、拡散モデルが優れている領域です。
SOTA 拡散生成は生成の品質と多様性を両立させますが、テキスト拡散には効率と品質管理を妨げる切り捨ての問題があります。
この研究では、学習された潜在空間が与えられた制御可能な拡散プロセスをモデル化することによる新しい言い換え生成である \textit{L}atent \textit{D}iffusion \textit{P}araphraser~(LDP) を提案します。
LDP は、拡散型のものと比較して優れた発電効率を実現します。
入力セグメントのみを容易にして言い換えセマンティクスを確保し、外部機能なしで結果を向上させることができます。
実験によれば、LDP はベースラインよりも言い換え生成の品質と多様性をうまく調和させることができます。
さらなる分析により、私たちの方法が他の同様のテキスト生成やドメイン適応にも役立つことがわかりました。

要約(オリジナル)

Paraphrase generation strives to generate high-quality and diverse expressions of a given text, a domain where diffusion models excel. Though SOTA diffusion generation reconciles generation quality and diversity, textual diffusion suffers from a truncation issue that hinders efficiency and quality control. In this work, we propose \textit{L}atent \textit{D}iffusion \textit{P}araphraser~(LDP), a novel paraphrase generation by modeling a controllable diffusion process given a learned latent space. LDP achieves superior generation efficiency compared to its diffusion counterparts. It can facilitate only input segments to ensure paraphrase semantics, improving the results without external features. Experiments show that LDP better reconciles paraphrase generation quality and diversity than baselines. Further analysis shows that our method is also helpful to other similar text generations and domain adaptations

arxiv情報

著者 Wei Zou,Ziyuan Zhuang,Xiang Geng,Shujian Huang,Jia Liu,Jiajun Chen
発行日 2025-01-17 17:05:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク