Stream-based Active Learning by Exploiting Temporal Properties in Perception with Temporal Predicted Loss

要約

アクティブ ラーニング (AL) は、ラベルを付けるインスタンスをインテリジェントに選択することで、機械学習モデルのトレーニングに必要なラベル付きデータの量を削減します。
従来のプールベースの AL では、すべてのデータがデータセンターに存在する必要がありますが、ディープ ラーニングに必要なデータ量が増加するにつれて困難になる可能性があります。
ただし、モバイル デバイスや自動運転車などのロボット上の AL は、データセンターに到達する前に知覚センサー ストリームからのデータをフィルタリングできます。
私たちは、このような画像ストリームの時間特性を研究で利用し、新しい時間予測損失 (TPL) 方法を提案しました。
ストリームベースの設定を適切に評価するために、GTA V ストリートと A2D2 ストリート データセットを導入し、両方を一般公開しました。
私たちの実験は、私たちのアプローチが不確実性に基づいた方法でありながら、選択の多様性を大幅に改善することを示しました。
認識アプリケーションではプールベースのアプローチがより一般的であるため、プールベースとストリームベースの AL を比較するための概念を導き出しました。そこでは、TPL がさまざまなモデルで最先端のプールベースまたはストリームベースのアプローチを上回りました。
TPL は、プールベースの方法よりも大幅に高速でありながら、必要なデータが 2.5 プリセプト ポイント (pp) 減少することを実証しました。

要約(オリジナル)

Active learning (AL) reduces the amount of labeled data needed to train a machine learning model by intelligently choosing which instances to label. Classic pool-based AL requires all data to be present in a datacenter, which can be challenging with the increasing amounts of data needed in deep learning. However, AL on mobile devices and robots, like autonomous cars, can filter the data from perception sensor streams before reaching the datacenter. We exploited the temporal properties for such image streams in our work and proposed the novel temporal predicted loss (TPL) method. To evaluate the stream-based setting properly, we introduced the GTA V streets and the A2D2 streets dataset and made both publicly available. Our experiments showed that our approach significantly improves the diversity of the selection while being an uncertainty-based method. As pool-based approaches are more common in perception applications, we derived a concept for comparing pool-based and stream-based AL, where TPL out-performed state-of-the-art pool- or stream-based approaches for different models. TPL demonstrated a gain of 2.5 precept points (pp) less required data while being significantly faster than pool-based methods.

arxiv情報

著者 Sebastian Schmidt,Stephan Günnemann
発行日 2023-09-26 11:11:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク