要約
感情の伝達とは異なり、ポジティブなリフレーミングでは、元の意味を維持しながら、ネガティブな視点をポジティブな表現に置き換えることを目指します。
事前トレーニング済み言語モデル (PLM) の出現により、PLM を微調整することで許容可能な結果を達成することが可能になりました。
それにもかかわらず、流暢で多様性があり、タスクに制約のあるリフレーミング テキストを生成することは依然として大きな課題です。
この問題に取り組むために、この論文では \textbf{m}ulti-\textbf{s} 戦略 \textbf{o} 最適化 \textbf{f} ラメワーク (MSOF) を提案します。
ポジティブなリフレーミングの目的から出発して、意味論の完全性と一貫性を確保しながら、モデルが元のテキストのネガティブな表現を変換することを促進するために、最初にポジティブな感情報酬とコンテンツ保存報酬を設計します。
次に、テキスト生成の品質を向上させるために、さまざまなデコード最適化アプローチが導入されます。
最後に、ポジティブ・リフレーミングのモデル化公式に基づいて、戦略の一貫性、テキストの類似性、流暢性の 3 つの次元から候補文をさらに選択する多次元の再ランキング手法を提案します。
2 つの Seq2Seq PLM、BART と T5 に関する広範な実験により、私たちのフレームワークが制約のない制御されたポジティブ リフレーミング タスクで大幅な改善を達成することが実証されました。
要約(オリジナル)
Differing from sentiment transfer, positive reframing seeks to substitute negative perspectives with positive expressions while preserving the original meaning. With the emergence of pre-trained language models (PLMs), it is possible to achieve acceptable results by fine-tuning PLMs. Nevertheless, generating fluent, diverse and task-constrained reframing text remains a significant challenge. To tackle this issue, a \textbf{m}ulti-\textbf{s}trategy \textbf{o}ptimization \textbf{f}ramework (MSOF) is proposed in this paper. Starting from the objective of positive reframing, we first design positive sentiment reward and content preservation reward to encourage the model to transform the negative expressions of the original text while ensuring the integrity and consistency of the semantics. Then, different decoding optimization approaches are introduced to improve the quality of text generation. Finally, based on the modeling formula of positive reframing, we propose a multi-dimensional re-ranking method that further selects candidate sentences from three dimensions: strategy consistency, text similarity and fluency. Extensive experiments on two Seq2Seq PLMs, BART and T5, demonstrate our framework achieves significant improvements on unconstrained and controlled positive reframing tasks.
arxiv情報
著者 | Shutong Jia,Biwei Cao,Qingqing Gao,Jiuxin Cao,Bo Liu |
発行日 | 2024-07-25 10:58:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google