要約
PMSS(Pre-trained Multilingual Sequence-Sequence)モデルで学習したNMTシステムは、微調整のために十分な量の並列データが利用できない場合、失敗します。これは特に、これらのモデルで表現されていない、または表現されていない言語について当てはまります。この問題は、データが異なるドメインから来た場合、さらに深刻になる。本論文では、PMSSモデルの中間タスクファインチューニング(ITFT)が、ドメイン固有のNMTにとって非常に有益であることを示す。特に、ターゲットドメインのデータが限られている/利用できない場合、また、PMSSモデルにおいて考慮される言語が欠落している/代表されていない場合である。我々は、ドメインダイバージェンステストを用いてドメイン固有の結果変動を定量化し、ITFTがドメインダイバージェンスの影響をある程度軽減できることを示す。
要約(オリジナル)
NMT systems trained on Pre-trained Multilingual Sequence-Sequence (PMSS) models flounder when sufficient amounts of parallel data is not available for fine-tuning. This specifically holds for languages missing/under-represented in these models. The problem gets aggravated when the data comes from different domains. In this paper, we show that intermediate-task fine-tuning (ITFT) of PMSS models is extremely beneficial for domain-specific NMT, especially when target domain data is limited/unavailable and the considered languages are missing or under-represented in the PMSS model. We quantify the domain-specific results variations using a domain-divergence test, and show that ITFT can mitigate the impact of domain divergence to some extent.
arxiv情報
著者 | Shravan Nayak,Surangika Ranathunga,Sarubi Thillainathan,Rikki Hung,Anthony Rinaldi,Yining Wang,Jonah Mackey,Andrew Ho,En-Shiun Annie Lee |
発行日 | 2023-06-02 09:05:18+00:00 |
arxivサイト | arxiv_id(pdf) |