The Pipeline System of ASR and NLU with MLM-based Data Augmentation toward STOP Low-resource Challenge

要約

【タイトル】MLMベースのデータ拡張によるASRおよびNLUのパイプラインシステムに向けたSTOP低リソースチャレンジ

【要約】
– 本論文は、ICASSP Signal Processing Grand Challenge 2023の一部であるSpoken Language Understanding Grand Challengeの低リソースドメイン適応トラック(トラック3)のために開発されたシステムについて述べている。
– トラックでは、ASRとNLUのパイプラインアプローチを採用している。
– ASRでは、Whisperを各ドメインに対してアップサンプリングを行いながら微調整している。
– NLUでは、まずTrack3の全データを用いたBARTの微調整を行い、次に低リソースドメインデータでも微調整を行っている。
– MLM(マスクされた言語モデル)ベースのデータ拡張を適用し、入力トークンの一部と対応するターゲットラベルを置き換えることで、データ数を増やしている。
– さらに、類似のトレーニングサンプルで入力を拡張するリトリーバルベースのアプローチも適用している。
– 結果として、reminder/weatherドメインの正解率が63.3 / 75.0(平均:69.15)であり、チャレンジで1位を獲得した。

要約(オリジナル)

This paper describes our system for the low-resource domain adaptation track (Track 3) in Spoken Language Understanding Grand Challenge, which is a part of ICASSP Signal Processing Grand Challenge 2023. In the track, we adopt a pipeline approach of ASR and NLU. For ASR, we fine-tune Whisper for each domain with upsampling. For NLU, we fine-tune BART on all the Track3 data and then on low-resource domain data. We apply masked LM (MLM) -based data augmentation, where some of input tokens and corresponding target labels are replaced using MLM. We also apply a retrieval-based approach, where model input is augmented with similar training samples. As a result, we achieved exact match (EM) accuracy 63.3/75.0 (average: 69.15) for reminder/weather domain, and won the 1st place at the challenge.

arxiv情報

著者 Hayato Futami,Jessica Huynh,Siddhant Arora,Shih-Lun Wu,Yosuke Kashiwagi,Yifan Peng,Brian Yan,Emiru Tsunoo,Shinji Watanabe
発行日 2023-05-02 04:03:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.SD, eess.AS パーマリンク