要約
機械翻訳 (MT) は、テスト セットを英語に翻訳して単言語モデルで推論を実行する (translate-test)、またはトレーニング セットをターゲット言語に翻訳して多言語モデルを微調整することにより、言語間の分類に広く使用されています。
(翻訳-列車)。
ただし、この分野のほとんどの研究は、MT コンポーネントではなく多言語モデルに焦点を当てています。
より強力な MT システムを使用し、元のテキストでのトレーニングと機械翻訳されたテキストでの推論の実行の間の不一致を軽減することで、翻訳テストが以前の想定よりも大幅に優れた結果を出せることを示します。
ただし、最適なアプローチはタスクに大きく依存します。異なるタスクや異なるアプローチに影響を与える言語間伝達ギャップのさまざまな原因が特定されるためです。
私たちの研究は、言語間の分類における多言語モデルの優位性に疑問を投げかけ、MT ベースのベースラインにもっと注意を払うよう促しています。
要約(オリジナル)
Machine Translation (MT) has been widely used for cross-lingual classification, either by translating the test set into English and running inference with a monolingual model (translate-test), or translating the training set into the target languages and finetuning a multilingual model (translate-train). However, most research in the area focuses on the multilingual models rather than the MT component. We show that, by using a stronger MT system and mitigating the mismatch between training on original text and running inference on machine translated text, translate-test can do substantially better than previously assumed. The optimal approach, however, is highly task dependent, as we identify various sources of cross-lingual transfer gap that affect different tasks and approaches differently. Our work calls into question the dominance of multilingual models for cross-lingual classification, and prompts to pay more attention to MT-based baselines.
arxiv情報
著者 | Mikel Artetxe,Vedanuj Goswami,Shruti Bhosale,Angela Fan,Luke Zettlemoyer |
発行日 | 2023-05-23 16:56:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google