要約
この論文では、mDeBERTas の事前トレーニング データにおけるさまざまなレベルの存在感と想定されるデータ品質を表す 3 つのゲルマン語 (ドイツ語、スウェーデン語、アイスランド語) のタスクに対する多言語エンコーダ モデル mDeBERTa の最適な使用法を調査します。
完全な微調整を、パラメータ効率の良い微調整 (PEFT) 手法である LoRA および Pfeiffer ボトルネック アダプターと比較したところ、高リソース言語であるドイツ語では PEFT の方が効果的であることがわかりました。
ただし、スウェーデン語とアイスランド語の結果にはそれほど一貫性がありません。
また、タスク間の違いも観察します。質問応答では PEFT がより適切に機能する傾向がありますが、固有表現認識では完全な微調整が望ましいと考えられます。
タスクアダプターと言語アダプターを組み合わせたモジュール方式のアプローチに関する以前の研究に触発されて、非構造化テキストでトレーニングされた PEFT モジュールを追加する影響を評価し、このアプローチは有益ではないことがわかりました。
要約(オリジナル)
This paper investigates the optimal use of the multilingual encoder model mDeBERTa for tasks in three Germanic languages — German, Swedish, and Icelandic — representing varying levels of presence and likely data quality in mDeBERTas pre-training data. We compare full fine-tuning with the parameter-efficient fine-tuning (PEFT) methods LoRA and Pfeiffer bottleneck adapters, finding that PEFT is more effective for the higher-resource language, German. However, results for Swedish and Icelandic are less consistent. We also observe differences between tasks: While PEFT tends to work better for question answering, full fine-tuning is preferable for named entity recognition. Inspired by previous research on modular approaches that combine task and language adapters, we evaluate the impact of adding PEFT modules trained on unstructured text, finding that this approach is not beneficial.
arxiv情報
著者 | Romina Oji,Jenny Kunz |
発行日 | 2025-01-10 15:01:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google