Continual learning for surface defect segmentation by subnetwork creation and selection

要約

壊滅的な忘却を引き起こすことなくセグメンテーションタスクを実行する、LDA-CP&S と呼ばれる新しい継続的 (または生涯にわたる) 学習アルゴリズムを導入します。
この方法は、段階的に学習される 2 つの異なる表面欠陥セグメント化問題に適用されます。つまり、一度に 1 種類の欠陥に関するデータを提供しながら、以前に確認されたすべての欠陥を予測することができます。
私たちの方法では、反復枝刈りによって欠陥タイプごとに欠陥関連のサブネットワークを作成し、線形判別分析 (LDA) に基づいて分類器をトレーニングします。
推論段階では、まず LDA を使用して欠陥の種類を予測し、次に選択したサブネットワークを使用して表面欠陥を予測します。
私たちの方法を他の継続的学習方法と比較すると、大幅な改善が見られます。つまり、両方のデータセットで既存の方法と比較した場合、和集合に対する平均交差が 2 倍優れていることがわかります。
重要なのは、すべてのトレーニング データ (すべての欠陥) を同時に確認した場合、私たちのアプローチは共同トレーニングと同等の結果を示すことです。

要約(オリジナル)

We introduce a new continual (or lifelong) learning algorithm called LDA-CP&S that performs segmentation tasks without undergoing catastrophic forgetting. The method is applied to two different surface defect segmentation problems that are learned incrementally, i.e. providing data about one type of defect at a time, while still being capable of predicting every defect that was seen previously. Our method creates a defect-related subnetwork for each defect type via iterative pruning and trains a classifier based on linear discriminant analysis (LDA). At the inference stage, we first predict the defect type with LDA and then predict the surface defects using the selected subnetwork. We compare our method with other continual learning methods showing a significant improvement — mean Intersection over Union better by a factor of two when compared to existing methods on both datasets. Importantly, our approach shows comparable results with joint training when all the training data (all defects) are seen simultaneously

arxiv情報

著者 Aleksandr Dekhovich,Miguel A. Bessa
発行日 2023-12-08 15:28:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク