Improving Spoken Language Identification with Map-Mix

要約

事前トレーニング済みの多言語 XLSR モデルは、目に見えない言語を微調整した後、言語識別のために適切に一般化されます。
ただし、方言の場合など、言語が互いにあまり区別されない場合、パフォーマンスは大幅に低下します。
低リソースの方言分類は、依然として解決が困難な問題です。
個々のデータ ポイントのモデル トレーニング ダイナミクスを活用して、潜在的な混同のサンプリングを改善する新しいデータ拡張方法を提示します。
この方法は、一般化が最優先されるリソースの少ない環境でうまく機能します。
私たちが Map-Mix と呼んでいるデータマップベースのミックスアップ技術は、ランダムなミックスアップのベースラインと比較して加重 F1 スコアを 2% 改善し、非常に適切に調整されたモデルをもたらします。
メソッドのコードは、https://github.com/skit-ai/Map-Mix でオープン ソース化されています。

要約(オリジナル)

The pre-trained multi-lingual XLSR model generalizes well for language identification after fine-tuning on unseen languages. However, the performance significantly degrades when the languages are not very distinct from each other, for example, in the case of dialects. Low resource dialect classification remains a challenging problem to solve. We present a new data augmentation method that leverages model training dynamics of individual data points to improve sampling for latent mixup. The method works well in low-resource settings where generalization is paramount. Our datamaps-based mixup technique, which we call Map-Mix improves weighted F1 scores by 2% compared to the random mixup baseline and results in a significantly well-calibrated model. The code for our method is open sourced on https://github.com/skit-ai/Map-Mix.

arxiv情報

著者 Shangeth Rajaa,Kriti Anandan,Swaraj Dalmia,Tarun Gupta,Eng Siong Chng
発行日 2023-02-16 11:27:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク