Subword Segmental Machine Translation: Unifying Segmentation and Target Sentence Generation

要約

BPEのようなサブワードセグメンテーション機能は、ニューラル機械翻訳やその他の(条件付き)言語モデルの前処理段階として動作します。BPEは学習前にデータセットに適用されるため、翻訳やテキスト生成の品質はセグメンテーションの品質に依存する。我々は、このパラダイムから脱却し、サブワード分割機械翻訳(SSMT)と呼ばれるものを提案する。SSMTは、サブワード分割とMTを単一の学習可能なモデルで統合したものである。SSMTは、ターゲット文の単語を分割することを学習し、同時にターゲット文を生成することを共同して学習する。SSMTを推論に利用するために、翻訳を生成する際にセグメンテーションを適応させるテキスト生成アルゴリズムであるダイナミックデコーディングを提案する。6つの翻訳方向で実験した結果、SSMTは形態素の多い膠着語系言語のchrFスコアを向上させることがわかった。この結果は、低リソースシナリオで最も顕著であった。また、SSMTはベースラインと比較して形態素に近いサブワードを学習し、形態素の構成汎化を評価するために構築されたテストセットにおいてより頑健であることが証明された。

要約(オリジナル)

Subword segmenters like BPE operate as a preprocessing step in neural machine translation and other (conditional) language models. They are applied to datasets before training, so translation or text generation quality relies on the quality of segmentations. We propose a departure from this paradigm, called subword segmental machine translation (SSMT). SSMT unifies subword segmentation and MT in a single trainable model. It learns to segment target sentence words while jointly learning to generate target sentences. To use SSMT during inference we propose dynamic decoding, a text generation algorithm that adapts segmentations as it generates translations. Experiments across 6 translation directions show that SSMT improves chrF scores for morphologically rich agglutinative languages. Gains are strongest in the very low-resource scenario. SSMT also learns subwords that are closer to morphemes compared to baselines and proves more robust on a test set constructed for evaluating morphological compositional generalisation.

arxiv情報

著者 Francois Meyer,Jan Buys
発行日 2023-05-11 17:44:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク