要約
この論文では、多言語シーンテキスト認識 (STR) のためのクロスリンガル学習 (CLL) を調査します。
CLL は、ある言語から別の言語に知識を伝達します。
私たちは、高リソース言語の知識を活用して低リソース言語のパフォーマンスを向上させる条件を見つけることを目指しています。
そのために、最初に、以前の研究で議論された CLL に関する 2 つの一般的な洞察が多言語 STR に適用されるかどうかを検証します。(1) 高リソース言語と低リソース言語の共同学習は、低リソース言語のパフォーマンスを低下させる可能性がある。(2) CLL
類型的に類似した言語間で最もよく機能します。
広範な実験を通じて、2 つの一般的な洞察が多言語 STR には適用できない可能性があることを示します。
その後、CLL の重要な条件は、高リソース言語の種類に関係なく、高リソース言語のデータセット サイズであることを示します。
コード、データ、モデルは https://github.com/ku21fan/CLL-STR で入手できます。
要約(オリジナル)
In this paper, we investigate cross-lingual learning (CLL) for multilingual scene text recognition (STR). CLL transfers knowledge from one language to another. We aim to find the condition that exploits knowledge from high-resource languages for improving performance in low-resource languages. To do so, we first examine if two general insights about CLL discussed in previous works are applied to multilingual STR: (1) Joint learning with high- and low-resource languages may reduce performance on low-resource languages, and (2) CLL works best between typologically similar languages. Through extensive experiments, we show that two general insights may not be applied to multilingual STR. After that, we show that the crucial condition for CLL is the dataset size of high-resource languages regardless of the kind of high-resource languages. Our code, data, and models are available at https://github.com/ku21fan/CLL-STR.
arxiv情報
著者 | Jeonghun Baek,Yusuke Matsui,Kiyoharu Aizawa |
発行日 | 2023-12-17 20:12:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google