VietMed: A Dataset and Benchmark for Automatic Speech Recognition of Vietnamese in the Medical Domain

要約

プライバシー制限により、医療分野では公的に利用可能な音声認識データセットが不足しています。
この研究では、16 時間のラベル付き医療音声、1000 時間のラベルなし医療音声、および 1200 時間のラベルなし一般領域音声で構成される医療領域のベトナム語音声認識データセットである VietMed を紹介します。
私たちの知る限り、VietMed は、合計時間、話者の数、疾患、録音条件、話者の役割、独特の医学用語とアクセントの 7 つの側面において、世界最大の公的医療音声認識データセットです。
また、VietMed は、総再生時間の点で群を抜いて最大の公開ベトナム語音声データセットです。
さらに、私たちは国内のすべての ICD-10 疾患グループとすべてのアクセントをカバーする医療 ASR データセットを初めて発表しました。
さらに、ベトナム ASR、w2v2-Viet および XLSR-53-Viet 用の初の公開大規模事前トレーニング モデルと、医療 ASR 用の初の公開大規模微調整モデルをリリースします。
教師なし事前トレーニングで医療データがない場合でも、当社の最高の事前トレーニング モデル XLSR-53-Viet は、最先端の XLSR-53 を上回る 51.8% から 29.6% の WER で優れたパフォーマンスを発揮し、医療分野に非常によく一般化します。
テストセット (40% 以上の相対的な削減)。
すべてのコード、データ、モデルは、https://github.com/leduckhai/MultiMed で公開されています。

要約(オリジナル)

Due to privacy restrictions, there’s a shortage of publicly available speech recognition datasets in the medical domain. In this work, we present VietMed – a Vietnamese speech recognition dataset in the medical domain comprising 16h of labeled medical speech, 1000h of unlabeled medical speech and 1200h of unlabeled general-domain speech. To our best knowledge, VietMed is by far the world’s largest public medical speech recognition dataset in 7 aspects: total duration, number of speakers, diseases, recording conditions, speaker roles, unique medical terms and accents. VietMed is also by far the largest public Vietnamese speech dataset in terms of total duration. Additionally, we are the first to present a medical ASR dataset covering all ICD-10 disease groups and all accents within a country. Moreover, we release the first public large-scale pre-trained models for Vietnamese ASR, w2v2-Viet and XLSR-53-Viet, along with the first public large-scale fine-tuned models for medical ASR. Even without any medical data in unsupervised pre-training, our best pre-trained model XLSR-53-Viet generalizes very well to the medical domain by outperforming state-of-the-art XLSR-53, from 51.8% to 29.6% WER on test set (a relative reduction of more than 40%). All code, data and models are made publicly available here: https://github.com/leduckhai/MultiMed.

arxiv情報

著者 Khai Le-Duc
発行日 2024-04-08 16:43:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, eess.AS パーマリンク