Automatic Speech Recognition Advancements for Indigenous Languages of the Americas

要約

先住民族の言語は人間のコミュニケーションの発展における基本的な遺産であり、アメリカの地域社会の独自のアイデンティティと文化を体現しています。
NeurIPS (神経情報処理システム) 2022 の第 2 回 AmericasNLP (アメリカ自然言語処理) コンペティション トラック 1 では、5 つの先住民言語 (ケチュア語、グアラニー語、ブリブリ語、コティリア語、ワイハナ語) の自動音声認識 (ASR) システムをトレーニングするタスクが提案されました。

この論文では、データ拡張手法で強化されたさまざまなソースからの約 36.65 時間の文字起こし音声データを使用して、ターゲット言語ごとに最先端の ASR モデルを微調整する方法について説明します。
ベイジアン検索を使用して、300 M パラメーターと 1 B パラメーターの Wav2vec2.0 XLS-R (Cross-Lingual Speech Representations) バリアントに対するさまざまなハイパーパラメーターの影響を体系的に調査します。
私たちの調査結果は、データと詳細なハイパーパラメーターの調整が ASR の精度に大きく影響するが、言語の複雑さが最終結果を決定することを示しています。
Quechua モデルは最も低い文字誤り率 (CER) (12.14) を達成しましたが、Kotiria モデルは、微調整段階で最も広範なデータセットを持っていたにもかかわらず、最も高い CER (36.59) を示しました。
逆に、最小のデータセットでは、Guarani モデルは 15.59 の CER を達成しましたが、Bibri と Wa’ikhana はそれぞれ 34.70 と 35.23 の CER を取得しました。
さらに、Sobol の感度分析では、フリーズ微調整アップデートとドロップアウト率の重要な役割が明らかになりました。
私たちは各言語に最適なモデルをリリースし、ワイハナとコティリア向けの最初のオープン ASR モデルをマークします。
この研究は、少数民族の先住民言語を保存するための ASR 技術を進歩させるための将来の研究への道を開きます

要約(オリジナル)

Indigenous languages are a fundamental legacy in the development of human communication, embodying the unique identity and culture of local communities in America. The Second AmericasNLP (Americas Natural Language Processing) Competition Track 1 of NeurIPS (Neural Information Processing Systems) 2022 proposed the task of training automatic speech recognition (ASR) systems for five Indigenous languages: Quechua, Guarani, Bribri, Kotiria, and Wa’ikhana. In this paper, we describe the fine-tuning of a state-of-the-art ASR model for each target language, using approximately 36.65 h of transcribed speech data from diverse sources enriched with data augmentation methods. We systematically investigate, using a Bayesian search, the impact of the different hyperparameters on the Wav2vec2.0 XLS-R (Cross-Lingual Speech Representations) variants of 300 M and 1 B parameters. Our findings indicate that data and detailed hyperparameter tuning significantly affect ASR accuracy, but language complexity determines the final result. The Quechua model achieved the lowest character error rate (CER) (12.14), while the Kotiria model, despite having the most extensive dataset during the fine-tuning phase, showed the highest CER (36.59). Conversely, with the smallest dataset, the Guarani model achieved a CER of 15.59, while Bribri and Wa’ikhana obtained, respectively, CERs of 34.70 and 35.23. Additionally, Sobol’ sensitivity analysis highlighted the crucial roles of freeze fine-tuning updates and dropout rates. We release our best models for each language, marking the first open ASR models for Wa’ikhana and Kotiria. This work opens avenues for future research to advance ASR techniques in preserving minority Indigenous languages

arxiv情報

著者 Monica Romero,Sandra Gomez,Ivan G. Torre
発行日 2024-07-26 09:48:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク