要約
2023年の多言語スピーチユニバーサルパフォーマンスベンチマーク(ML-Superb)チャレンジは、高く評価されている素晴らしいフレームワークに拡大し、多言語の音声認識と言語識別における自己監視モデルを強調しています。
この課題は、ML-SUPERBを特定の多言語科目に適用することに焦点を当てた研究トラック、モデル提出のためのチャレンジトラック、および言語リソース研究者が最新の進捗状況のコンテキストで低リソースの言語データを貢献および評価できる新しい言語トラックで構成されています。
多言語認識で。
この課題は、12のモデルの提出と54の言語コーパスを獲得し、154の言語を含む包括的なベンチマークをもたらしました。
調査結果は、単にスケーリングモデルが多言語音声タスクの決定的なソリューションではなく、さまざまな音声/音声タイプが多言語音声処理において重要な課題をもたらすことを示しています。
要約(オリジナル)
The 2023 Multilingual Speech Universal Performance Benchmark (ML-SUPERB) Challenge expands upon the acclaimed SUPERB framework, emphasizing self-supervised models in multilingual speech recognition and language identification. The challenge comprises a research track focused on applying ML-SUPERB to specific multilingual subjects, a Challenge Track for model submissions, and a New Language Track where language resource researchers can contribute and evaluate their low-resource language data in the context of the latest progress in multilingual speech recognition. The challenge garnered 12 model submissions and 54 language corpora, resulting in a comprehensive benchmark encompassing 154 languages. The findings indicate that merely scaling models is not the definitive solution for multilingual speech tasks, and a variety of speech/voice types present significant challenges in multilingual speech processing.
arxiv情報
著者 | Jiatong Shi,William Chen,Dan Berrebbi,Hsiu-Hsuan Wang,Wei-Ping Huang,En-Pei Hu,Ho-Lam Chuang,Xuankai Chang,Yuxun Tang,Shang-Wen Li,Abdelrahman Mohamed,Hung-yi Lee,Shinji Watanabe |
発行日 | 2025-02-24 18:13:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google