要約
十分なラベル付きデータを生成することは、特に分類タスクとは異なりラベル付けに長時間を必要とする画像セグメンテーションという未知の領域において、深層学習プロジェクトを効率的に実行する上で大きなハードルとなります。
私たちの研究は、ハードウェア リソースが限られており、広範なデータセットや事前トレーニングされたモデルが不足しているという制約のある環境で運用することで、この課題に直面しています。
画像と擬似ラベルのペアの不確実性を効果的にフィルタリングするための不整合マスク (IM) の新しい使用法を導入し、従来の半教師あり学習技術を超えてセグメンテーションの品質を大幅に向上させます。
IM を他の手法と統合することで、わずか 10% のラベル付きデータから始めて、ISIC 2018 データセットで優れたバイナリ セグメンテーション パフォーマンスを実証しました。
特に、ハイブリッド モデルのうち 3 つは、完全にラベル付けされたデータセットでトレーニングされたモデルよりも優れたパフォーマンスを示します。
私たちのアプローチは、3 つの追加データセットにわたって一貫して優れた結果を達成しており、他の手法と組み合わせることでさらなる改善を示しています。
包括的かつ堅牢な評価を行うために、このペーパーには、すべて同一の開始条件でトレーニングされた、普及している半教師あり学習戦略の広範な分析が含まれています。
完全なコードは、https://github.com/MichaelVorndran/InconsistencyMasks で入手できます。
要約(オリジナル)
Generating sufficient labeled data is a significant hurdle in the efficient execution of deep learning projects, especially in uncharted territories of image segmentation where labeling demands extensive time, unlike classification tasks. Our study confronts this challenge, operating in an environment constrained by limited hardware resources and the lack of extensive datasets or pre-trained models. We introduce the novel use of Inconsistency Masks (IM) to effectively filter uncertainty in image-pseudo-label pairs, substantially elevating segmentation quality beyond traditional semi-supervised learning techniques. By integrating IM with other methods, we demonstrate remarkable binary segmentation performance on the ISIC 2018 dataset, starting with just 10% labeled data. Notably, three of our hybrid models outperform those trained on the fully labeled dataset. Our approach consistently achieves exceptional results across three additional datasets and shows further improvement when combined with other techniques. For comprehensive and robust evaluation, this paper includes an extensive analysis of prevalent semi-supervised learning strategies, all trained under identical starting conditions. The full code is available at: https://github.com/MichaelVorndran/InconsistencyMasks
arxiv情報
著者 | Michael R. H. Vorndran,Bernhard F. Roeck |
発行日 | 2024-01-25 18:46:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google