PERL: Pinyin Enhanced Rephrasing Language Model for Chinese ASR N-best Error Correction

要約

ASR 補正手法は主に一般的なデータセットに焦点を当てており、中国語特有のピンイン情報を効果的に活用していませんでした。
この研究では、N-best 修正シナリオ向けに特別に設計されたピンイン強化言い換え言語モデル (PERL) を提案することで、このギャップに対処します。
さらに、可変長の問題に対処するために長さ予測モジュールを実装します。
私たちは、Aishell-1 データセットと新しく提案された DoAD データセットで実験を行います。
結果は、私たちのアプローチがベースライン手法を上回り、Aishell-1 で文字エラー率 (CER) を 29.11% 削減し、ドメイン固有のデータセットで約 70% の CER 削減を達成したことを示しています。
さらに、当社のアプローチはトークン レベルでのピンインの類似性を活用し、ベースラインよりも優れた利点を提供し、優れたパフォーマンスを実現します。

要約(オリジナル)

ASR correction methods have predominantly focused on general datasets and have not effectively utilized Pinyin information, unique to the Chinese language. In this study, we address this gap by proposing a Pinyin Enhanced Rephrasing Language Model (PERL), specifically designed for N-best correction scenarios. Additionally, we implement a length predictor module to address the variable-length problem. We conduct experiments on the Aishell-1 dataset and our newly proposed DoAD dataset. The results show that our approach outperforms baseline methods, achieving a 29.11% reduction in Character Error Rate (CER) on Aishell-1 and around 70% CER reduction on domain-specific datasets. Furthermore, our approach leverages Pinyin similarity at the token level, providing an advantage over baselines and leading to superior performance.

arxiv情報

著者 Junhong Liang
発行日 2024-12-04 11:28:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク