Improving Cross-Lingual Transfer through Subtree-Aware Word Reordering

要約

XLM-R や mT5 などの多言語言語モデルの能力は目覚ましい成長を遂げていますが、類型的に遠い言語に取り組む場合、特に低リソース環境では依然として困難に直面していることが示されています。
効果的な言語間伝達の障害の 1 つは、語順パターンのばらつきです。
これは、ソース側またはターゲット側の単語の並べ替えによって潜在的に軽減される可能性があり、並べ替えに対する多数のアプローチが提案されています。
ただし、言語固有のルールに依存したり、POS タグのレベルで機能したり、主節のみを対象として従属節はそのまま残したりします。
これらの制限に対処するために、ユニバーサル依存関係の観点から定義された新しい強力な並べ替え方法を提案します。この方法は、少量の注釈付きデータから構文コンテキストを条件としたきめ細かい語順パターンを学習でき、まったく適用できます。
構文ツリーのレベル。
私たちはさまざまなタスクのセットで実験を実施し、私たちの手法がさまざまな言語ペアやモデル アーキテクチャに対して一貫して強力なベースラインを上回るパフォーマンスを示すことを示しました。
このパフォーマンス上の利点は、ショット数がゼロのシナリオと数ショットのシナリオの両方に当てはまります。

要約(オリジナル)

Despite the impressive growth of the abilities of multilingual language models, such as XLM-R and mT5, it has been shown that they still face difficulties when tackling typologically-distant languages, particularly in the low-resource setting. One obstacle for effective cross-lingual transfer is variability in word-order patterns. It can be potentially mitigated via source- or target-side word reordering, and numerous approaches to reordering have been proposed. However, they rely on language-specific rules, work on the level of POS tags, or only target the main clause, leaving subordinate clauses intact. To address these limitations, we present a new powerful reordering method, defined in terms of Universal Dependencies, that is able to learn fine-grained word-order patterns conditioned on the syntactic context from a small amount of annotated data and can be applied at all levels of the syntactic tree. We conduct experiments on a diverse set of tasks and show that our method consistently outperforms strong baselines over different language pairs and model architectures. This performance advantage holds true in both zero-shot and few-shot scenarios.

arxiv情報

著者 Ofir Arviv,Dmitry Nikolaev,Taelin Karidi,Omri Abend
発行日 2023-10-20 15:25:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク