要約
ContextNet アーキテクチャに基づいた音声言語識別 (LID) 用のコンパクトなエンドツーエンド ニューラル ネットワークである TitaNet-LID を紹介します。
TitaNet-LID は、1D の深さ方向の分離可能な畳み込みとスクイーズアンド励起層を採用して、発話内のローカルおよびグローバルのコンテキストを効果的にキャプチャします。
TitaNet-LID は、サイズが小さいにもかかわらず、10 分の 1 のサイズでありながら、VoxLingua107 データセットの最先端モデルと同様のパフォーマンスを実現します。
さらに、簡単な微調整によって新しい音響条件や未知の言語に簡単に適応でき、FLEURS ベンチマークで 88.2% という最先端の精度を達成します。
私たちのモデルはスケーラブルであり、精度と速度の間でより適切なトレードオフを達成できます。
TitaNet-LID は、長さが 5 秒未満の短い発話でも良好なパフォーマンスを示し、入力長に対する堅牢性を示しています。
要約(オリジナル)
We introduce TitaNet-LID, a compact end-to-end neural network for Spoken Language Identification (LID) that is based on the ContextNet architecture. TitaNet-LID employs 1D depth-wise separable convolutions and Squeeze-and-Excitation layers to effectively capture local and global context within an utterance. Despite its small size, TitaNet-LID achieves performance similar to state-of-the-art models on the VoxLingua107 dataset while being 10 times smaller. Furthermore, it can be easily adapted to new acoustic conditions and unseen languages through simple fine-tuning, achieving a state-of-the-art accuracy of 88.2% on the FLEURS benchmark. Our model is scalable and can achieve a better trade-off between accuracy and speed. TitaNet-LID performs well even on short utterances less than 5s in length, indicating its robustness to input length.
arxiv情報
著者 | Fei Jia,Nithin Rao Koluguri,Jagadeesh Balam,Boris Ginsburg |
発行日 | 2023-08-10 23:34:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google