Utilize Transformers for translating Wikipedia category names

要約

Wikipedia では、読者が効率的にコンテンツをナビゲートできるように記事が分類されています。
新しいカテゴリを手動で作成するのは、手間と時間がかかる場合があります。
この問題に取り組むために、15,000 個の英語とベトナム語のカテゴリのペアを含むデータセットを使用して、Wikipedia のカテゴリを英語からベトナム語に翻訳する言語モデルを構築しました。
その後、シーケンス間アーキテクチャを備えた小規模から中規模の Transformer 事前トレーニング済みモデルが、カテゴリ変換用に微調整されました。
実験の結果、OPUS-MT-en-vi は他のモデルを上回り、モデルストレージが小さいにもかかわらず、BLEU スコア 0.73 で最高のパフォーマンスを達成したことがわかりました。
私たちの論文が、コンピュータリソースが限られている翻訳タスクの代替ソリューションとなることを期待しています。

要約(オリジナル)

On Wikipedia, articles are categorized to aid readers in navigating content efficiently. The manual creation of new categories can be laborious and time-intensive. To tackle this issue, we built language models to translate Wikipedia categories from English to Vietnamese with a dataset containing 15,000 English-Vietnamese category pairs. Subsequently, small to medium-scale Transformer pre-trained models with a sequence-to-sequence architecture were fine-tuned for category translation. The experiments revealed that OPUS-MT-en-vi surpassed other models, attaining the highest performance with a BLEU score of 0.73, despite its smaller model storage. We expect our paper to be an alternative solution for translation tasks with limited computer resources.

arxiv情報

著者 Hoang-Thang Ta,Quoc Thang La
発行日 2024-08-12 13:07:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク