Online Active Learning For Sound Event Detection

要約

データの収集と注釈は、教師あり機械学習タスクの前提条件であり、手間と時間がかかります。
オンライン アクティブ ラーニング (OAL) は、分類器のトレーニングに必要なアノテーションの量を最小限に抑え、同時にデータ収集プロセス中のデータの変化に適応することで、この問題に対処するパラダイムです。
これまでの研究では、クラス分布の変動とデータ ドリフトが依然として OAL にとって一般的な問題であることが示されています。
この研究では、OAL をサウンド イベント検出 (SED) に適用する場合のこれらの課題に対処する新しい損失関数を示します。
SONYC データセットと 2 つの Voice-Type Discrimination (VTD) コーパスからの実験結果は、OAL が SONYC の SED 分類器のトレーニングに必要な時間と労力を 5 分の 1 に削減できること、およびここで紹介する新しい方法が問題をうまく解決できることを示しています。
既存の OAL メソッド。

要約(オリジナル)

Data collection and annotation is a laborious, time-consuming prerequisite for supervised machine learning tasks. Online Active Learning (OAL) is a paradigm that addresses this issue by simultaneously minimizing the amount of annotation required to train a classifier and adapting to changes in the data over the duration of the data collection process. Prior work has indicated that fluctuating class distributions and data drift are still common problems for OAL. This work presents new loss functions that address these challenges when OAL is applied to Sound Event Detection (SED). Experimental results from the SONYC dataset and two Voice-Type Discrimination (VTD) corpora indicate that OAL can reduce the time and effort required to train SED classifiers by a factor of 5 for SONYC, and that the new methods presented here successfully resolve issues present in existing OAL methods.

arxiv情報

著者 Mark Lindsey,Ankit Shah,Francis Kubala,Richard M. Stern
発行日 2023-09-25 18:48:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS パーマリンク