要約
事前トレーニングは、セマンティック セグメンテーションを含む多くのドメイン、特にラベル付きデータが限られているドメインでパフォーマンスを向上させることが示されています。
この研究では、ラベル付けされたデータセットが限られている分野であるエレクトロルミネッセンス画像における太陽電池欠陥検出 (SCDD) のさまざまな事前トレーニング方法の大規模な評価とベンチマークを実行します。
セマンティック セグメンテーションによる教師ありトレーニング、半教師あり学習、および 2 つの自己教師あり手法について説明します。
また、ディストリビューション内とディストリビューション外 (OOD) の両方の事前トレーニングを実験し、これがダウンストリームのパフォーマンスにどのような影響を与えるかを観察します。
この結果は、大規模な OOD データセット (COCO) での教師ありトレーニング、大規模な OOD データセット (ImageNet) での自己教師あり事前トレーニング (ImageNet)、および半教師あり事前トレーニング (CCT) のすべてが、平均積分オーバーユニオン (mIoU) に関して統計的に同等のパフォーマンスをもたらすことを示唆しています。
私たちは SCDD の新しい最先端技術を実現し、特定の事前学習スキームが過小評価されたクラスで優れたパフォーマンスをもたらすことを実証しました。
さらに、この分野での自己教師ありおよび半教師ありトレーニング手法の開発におけるさらなる研究のために、22,000 ドルの画像からなる大規模なラベルなし EL 画像データセットと、642 ドルの画像ラベル付きセマンティック セグメンテーション EL データセットを提供します。
要約(オリジナル)
Pretraining has been shown to improve performance in many domains, including semantic segmentation, especially in domains with limited labelled data. In this work, we perform a large-scale evaluation and benchmarking of various pretraining methods for Solar Cell Defect Detection (SCDD) in electroluminescence images, a field with limited labelled datasets. We cover supervised training with semantic segmentation, semi-supervised learning, and two self-supervised techniques. We also experiment with both in-distribution and out-of-distribution (OOD) pretraining and observe how this affects downstream performance. The results suggest that supervised training on a large OOD dataset (COCO), self-supervised pretraining on a large OOD dataset (ImageNet), and semi-supervised pretraining (CCT) all yield statistically equivalent performance for mean Intersection over Union (mIoU). We achieve a new state-of-the-art for SCDD and demonstrate that certain pretraining schemes result in superior performance on underrepresented classes. Additionally, we provide a large-scale unlabelled EL image dataset of $22000$ images, and a $642$-image labelled semantic segmentation EL dataset, for further research in developing self- and semi-supervised training techniques in this domain.
arxiv情報
著者 | David Torpey,Lawrence Pratt,Richard Klein |
発行日 | 2024-02-27 15:37:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google