要約
オンラインでの不正コンテンツの検出、特にリソースが少ない環境やオーディオ モダリティ内での検出は、依然として十分に研究されていません。
私たちは、リソースの少ない言語、この場合はインドの言語での暴言を検出するための事前トレーニングされた音声表現の可能性を、フューショット学習 (FSL) を使用して調査しました。
Wav2Vec や Whisper などのモデルの強力な表現を活用して、FSL を備えた ADIMA データセットを使用して言語を超えた虐待の検出を検討します。
私たちのアプローチは、これらの表現をモデルに依存しないメタ学習 (MAML) フレームワーク内に統合し、10 の言語で虐待的な言葉を分類します。
さまざまなショット サイズ (50 ~ 200) を試して、限られたデータがパフォーマンスに与える影響を評価します。
さらに、モデルの動作をより深く理解するために、特徴の視覚化研究が実施されました。
この研究は、リソースが少ないシナリオにおける事前トレーニング済みモデルの一般化能力に焦点を当て、多言語コンテキストでの暴言の検出に関する貴重な洞察を提供します。
要約(オリジナル)
Online abusive content detection, particularly in low-resource settings and within the audio modality, remains underexplored. We investigate the potential of pre-trained audio representations for detecting abusive language in low-resource languages, in this case, in Indian languages using Few Shot Learning (FSL). Leveraging powerful representations from models such as Wav2Vec and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset with FSL. Our approach integrates these representations within the Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in 10 languages. We experiment with various shot sizes (50-200) evaluating the impact of limited data on performance. Additionally, a feature visualization study was conducted to better understand model behaviour. This study highlights the generalization ability of pre-trained models in low-resource scenarios and offers valuable insights into detecting abusive language in multilingual contexts.
arxiv情報
著者 | Aditya Narayan Sankaran,Reza Farahbakhsh,Noel Crespi |
発行日 | 2024-12-13 11:59:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google