Data Augmentation and Hyperparameter Tuning for Low-Resource MFA

要約

計算ツールと絶滅の危機にedしていない、リソース不足の言語を扱っている人にとって継続的な問題は、データが少ない言語の結果の精度が低いことです。
データの増強方法を使用してコーパスサイズを増やすことにより、この問題を改善し、増強とハイパーパラメーターの調整と多言語の強制アライメントを比較しようとします。
テキストの増強方法とは異なり、オーディオの増強はパフォーマンスが大幅に向上することはありません。
一方、ハイパーパラメーターチューニングは、(この量のデータに対して)実行不可能な追加トレーニング時間なしで大幅に改善されます。
少量から中程度のトレーニングデータを持つ言語の場合、これは高リソース言語からモデルを適応するための実行可能な代替手段です。

要約(オリジナル)

A continued issue for those working with computational tools and endangered and under-resourced languages is the lower accuracy of results for languages with smaller amounts of data. We attempt to ameliorate this issue by using data augmentation methods to increase corpus size, comparing augmentation to hyperparameter tuning for multilingual forced alignment. Unlike text augmentation methods, audio augmentation does not lead to substantially increased performance. Hyperparameter tuning, on the other hand, results in substantial improvement without (for this amount of data) infeasible additional training time. For languages with small to medium amounts of training data, this is a workable alternative to adapting models from high-resource languages.

arxiv情報

著者 Alessio Tosolini,Claire Bowern
発行日 2025-04-09 16:38:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク