要約
タイトル:低資源言語のためのニューラル機械翻訳
要約:
– 自然言語が持つ複雑性と変動性のため、ニューラル機械翻訳は難しいタスクである。
– しかし、近年、多数の言語対で最先端の性能を達成している。
– 最近では多言語ニューラル機械翻訳に注目が集まっているが、どのアプローチがうまくいくかを特定する包括的な調査はまだ行われていない。
– 本論文の目的は、低資源言語の領域を調査し、最先端の結果を実現するためにニューラル機械翻訳モデルを構築することである。
– 本論文は、mBART言語モデルを基盤として構築し、バックトランスレーションや転移学習などのNLPおよび深層学習技術を活用する戦略を探究する。
– この実装は、NMTアプリケーションのアーキテクチャを解明し、低資源言語問題空間の枠組み内でアプリケーションを修正するための異なるコンポーネントを特定しようとしている。
要約(オリジナル)
Neural Machine translation is a challenging task due to the inherent complex nature and the fluidity that natural languages bring. Nonetheless, in recent years, it has achieved state-of-the-art performance in several language pairs. Although, a lot of traction can be seen in the areas of multilingual neural machine translation (MNMT) in the recent years, there are no comprehensive survey done to identify what approaches work well. The goal of this paper is to investigate the realm of low resource languages and build a Neural Machine Translation model to achieve state-of-the-art results. The paper looks to build upon the mBART language model and explore strategies to augment it with various NLP and Deep Learning techniques like back translation and transfer learning. This implementation tries to unpack the architecture of the NMT application and determine the different components which offers us opportunities to amend the said application within the purview of the low resource languages problem space.
arxiv情報
著者 | Vakul Goyle,Parvathy Krishnaswamy,Kannan Girija Ravikumar,Utsa Chattopadhyay,Kartikay Goyle |
発行日 | 2023-04-18 01:36:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI