要約
特に低リソース環境と音声モダリティにおけるオンライン罵倒コンテンツ検出は、まだ十分に研究されていない。我々は、Few Shot Learning (FSL)を用いて、低リソース言語(この場合はインド言語)における罵倒語を検出するための、事前に訓練された音声表現の可能性を調査する。Wav2VecやWhisperのようなモデルの強力な表現を活用し、ADIMAデータセットを用いたFSLによる言語横断的な乱用検出を探求する。我々のアプローチは、モデル無視メタ学習(MAML)フレームワーク内でこれらの表現を統合し、10言語における罵倒語を分類する。様々なショットサイズ(50~200)で実験を行い、限られたデータが性能に与える影響を評価した。さらに、モデルの挙動をより良く理解するために、特徴の可視化研究を実施した。この研究は、低リソースシナリオにおける事前学習済みモデルの汎化能力を強調し、多言語コンテキストにおける暴言の検出に関する貴重な洞察を提供する。
要約(オリジナル)
Online abusive content detection, particularly in low-resource settings and within the audio modality, remains underexplored. We investigate the potential of pre-trained audio representations for detecting abusive language in low-resource languages, in this case, in Indian languages using Few Shot Learning (FSL). Leveraging powerful representations from models such as Wav2Vec and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset with FSL. Our approach integrates these representations within the Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in 10 languages. We experiment with various shot sizes (50-200) evaluating the impact of limited data on performance. Additionally, a feature visualization study was conducted to better understand model behaviour. This study highlights the generalization ability of pre-trained models in low-resource scenarios and offers valuable insights into detecting abusive language in multilingual contexts.
arxiv情報
著者 | Aditya Narayan Sankaran,Reza Farahbakhsh,Noel Crespi |
発行日 | 2024-12-03 07:52:35+00:00 |
arxivサイト | arxiv_id(pdf) |