要約
弱い教師あり手法はラベリング作業を減らすことができますが、弱い教師ありデータ (ポイント アノテーションなど) でトレーニングされた顕著性モデルが完全教師ありバージョンと同等のパフォーマンスを達成できるかどうかは不明です。
このホワイト ペーパーでは、仮説を証明することによって、この未踏の問題に答えようとしています。ポイント ラベル付きデータセットがあり、そこでトレーニングされた顕著性モデルは、密に注釈が付けられたデータセットでトレーニングされた場合に同等のパフォーマンスを達成できます。
この推測を証明するために、私たちは斬新で効果的な敵対的軌跡アンサンブル能動学習 (ATAL) を提案しました。
私たちの貢献は 3 つあります: 1) 不確実性を引き起こす私たちの提案する敵対的攻撃は、既存の能動学習方法の過信を克服し、これらの不確実なピクセルを正確に見つけることができます。
{2)} 我々が提案する軌跡アンサンブル不確実性推定法は、計算コストを大幅に削減しながら、アンサンブル ネットワークの利点を維持します。
{3)} 私たちが提案した関係認識ダイバーシティ サンプリング アルゴリズムは、パフォーマンスを向上させながら、オーバーサンプリングを克服することができます。
実験結果は、ATAL がそのようなポイント ラベル付きデータセットを見つけることができることを示しています。このデータセットでトレーニングされた顕著性モデルは、画像ごとに 10 個の注釈付きポイントのみで、完全に監視されたバージョンの $97\%$ — $99\%$ のパフォーマンスを達成しました。
要約(オリジナル)
Although weakly-supervised techniques can reduce the labeling effort, it is unclear whether a saliency model trained with weakly-supervised data (e.g., point annotation) can achieve the equivalent performance of its fully-supervised version. This paper attempts to answer this unexplored question by proving a hypothesis: there is a point-labeled dataset where saliency models trained on it can achieve equivalent performance when trained on the densely annotated dataset. To prove this conjecture, we proposed a novel yet effective adversarial trajectory-ensemble active learning (ATAL). Our contributions are three-fold: 1) Our proposed adversarial attack triggering uncertainty can conquer the overconfidence of existing active learning methods and accurately locate these uncertain pixels. {2)} Our proposed trajectory-ensemble uncertainty estimation method maintains the advantages of the ensemble networks while significantly reducing the computational cost. {3)} Our proposed relationship-aware diversity sampling algorithm can conquer oversampling while boosting performance. Experimental results show that our ATAL can find such a point-labeled dataset, where a saliency model trained on it obtained $97\%$ — $99\%$ performance of its fully-supervised version with only ten annotated points per image.
arxiv情報
著者 | Zhenyu Wu,Lin Wang,Wei Wang,Qing Xia,Chenglizhao Chen,Aimin Hao,Shuo Li |
発行日 | 2022-12-13 11:18:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google