Machine Translation for Ge’ez Language

要約

日常生活ではもはや話されていない古代言語である Ge’ez などの低リソース言語の機械翻訳 (MT) は、語彙不足、ドメインの不一致、十分なラベル付きトレーニング データの欠如などの課題に直面しています。
この研究では、関連言語からの転移学習、共有語彙とトークン セグメンテーション アプローチの最適化、大規模な事前トレーニング済みモデルの微調整、少数ショット向けの大規模言語モデル (LLM) の使用など、Ge’ez MT を改善するためのさまざまな方法を検討します。
あいまい一致による翻訳。
私たちは、言語の関連性に基づいて多言語ニューラル機械翻訳 (MNMT) モデルを開発します。これにより、標準的な二言語モデルと比較して、平均で約 4 BLEU のパフォーマンス向上が実現します。
また、現在利用可能な最も高度な翻訳モデルの 1 つである NLLB-200 モデルの微調整も試みましたが、Ge’ez のトレーニング サンプルが 4k のみではパフォーマンスが低いことがわかりました。
さらに、最先端の LLM である GPT-3.5 を使用して、あいまい一致による少数ショット翻訳を実験します。これは、埋め込み類似性に基づく検索を利用して、並列コーパスからコンテキスト例を見つけます。
Ge’ez に関する初期知識がない場合でも、GPT-3.5 は 9.2 という注目すべき BLEU スコアを達成していることが観察されていますが、それでも MNMT ベースラインの 15.2 よりは低いです。
私たちの研究は、低リソース言語や古代言語の MT に対するさまざまなアプローチの可能性と限界についての洞察を提供します。

要約(オリジナル)

Machine translation (MT) for low-resource languages such as Ge’ez, an ancient language that is no longer spoken in daily life, faces challenges such as out-of-vocabulary words, domain mismatches, and lack of sufficient labeled training data. In this work, we explore various methods to improve Ge’ez MT, including transfer-learning from related languages, optimizing shared vocabulary and token segmentation approaches, finetuning large pre-trained models, and using large language models (LLMs) for few-shot translation with fuzzy matches. We develop a multilingual neural machine translation (MNMT) model based on languages relatedness, which brings an average performance improvement of about 4 BLEU compared to standard bilingual models. We also attempt to finetune the NLLB-200 model, one of the most advanced translation models available today, but find that it performs poorly with only 4k training samples for Ge’ez. Furthermore, we experiment with using GPT-3.5, a state-of-the-art LLM, for few-shot translation with fuzzy matches, which leverages embedding similarity-based retrieval to find context examples from a parallel corpus. We observe that GPT-3.5 achieves a remarkable BLEU score of 9.2 with no initial knowledge of Ge’ez, but still lower than the MNMT baseline of 15.2. Our work provides insights into the potential and limitations of different approaches for low-resource and ancient language MT.

arxiv情報

著者 Aman Kassahun Wassie
発行日 2023-11-24 14:55:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク