PartAL: Efficient Partial Active Learning in Multi-Task Visual Settings

要約

マルチタスク学習は、多くの実世界のアプリケーションの中心です。
残念ながら、すべてのタスクのラベル付きデータを取得するには、時間がかかり、困難で、費用がかかります。
この負担を軽減するために、アクティブ ラーニング (AL) を使用できます。
既存の手法では、通常、注釈を付ける画像を選択し、すべてのタスクに注釈を付ける必要があります。
このホワイト ペーパーでは、注釈を付ける画像だけでなく、各 AL 反復で注釈を付けるタスクのサブセットも選択する方が効果的であることを示します。
さらに、提供されている注釈を使用して、注釈が付けられていないタスクの疑似ラベルを推測できます。
いくつかの一般的なマルチタスク データセットに対するアプローチの有効性を示します。

要約(オリジナル)

Multi-task learning is central to many real-world applications. Unfortunately, obtaining labelled data for all tasks is time-consuming, challenging, and expensive. Active Learning (AL) can be used to reduce this burden. Existing techniques typically involve picking images to be annotated and providing annotations for all tasks. In this paper, we show that it is more effective to select not only the images to be annotated but also a subset of tasks for which to provide annotations at each AL iteration. Furthermore, the annotations that are provided can be used to guess pseudo-labels for the tasks that remain unannotated. We demonstrate the effectiveness of our approach on several popular multi-task datasets.

arxiv情報

著者 Nikita Durasov,Nik Dorndorf,Pascal Fua
発行日 2022-11-21 15:08:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク