要約
この論文は、テキストの無害化、つまり有害なテキストを無害なテキストに自動的に変換することに焦点を当てています。
このタスクは、より安全で敬意を持ったオンライン コミュニケーションに貢献し、コンテンツを保持しながらテキスト スタイルを変更するテキスト スタイル転送 (TST) タスクとみなすことができます。
我々は、同様のタスクからの知識の伝達、マルチタスク学習アプローチ、シーケンス間モデリングとさまざまな毒性分類タスクとの組み合わせ、および削除および再構築アプローチの 3 つのアプローチを提示します。
私たちの研究をサポートするために、Dementieva et al.(2021) によって提供されたデータセットを利用します。このデータセットには、有害なテキストに対応する無害化されたテキストの複数のバージョンが含まれています。
私たちの実験では、専門の人間によるアノテーターを通じて最適なバリアントを選択し、各有害な文を単一の適切な無害化バージョンと組み合わせたデータセットを作成しました。
さらに、評価目的に適した、英語のデータセットの一部と一致する小さなヒンディー語の並列データセットを導入しました。
私たちの結果は、私たちのアプローチが実際のコンテンツを維持し、流暢さを維持しながら、テキストの無毒化のバランスを効果的にとっていることを示しています。
要約(オリジナル)
This paper focuses on text detoxification, i.e., automatically converting toxic text into non-toxic text. This task contributes to safer and more respectful online communication and can be considered a Text Style Transfer (TST) task, where the text style changes while its content is preserved. We present three approaches: knowledge transfer from a similar task, multi-task learning approach, combining sequence-to-sequence modeling with various toxicity classification tasks, and, delete and reconstruct approach. To support our research, we utilize a dataset provided by Dementieva et al.(2021), which contains multiple versions of detoxified texts corresponding to toxic texts. In our experiments, we selected the best variants through expert human annotators, creating a dataset where each toxic sentence is paired with a single, appropriate detoxified version. Additionally, we introduced a small Hindi parallel dataset, aligning with a part of the English dataset, suitable for evaluation purposes. Our results demonstrate that our approach effectively balances text detoxication while preserving the actual content and maintaining fluency.
arxiv情報
著者 | Sourabrata Mukherjee,Akanksha Bansal,Atul Kr. Ojha,John P. McCrae,Ondřej Dušek |
発行日 | 2024-02-12 16:30:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google