Principles of Forgetting in Domain-Incremental Semantic Segmentation in Adverse Weather Conditions

要約

自動運転車のシーン認識用のディープ ニューラル ネットワークは、トレーニングされた領域で優れた結果を達成します。
ただし、実際の状況では、運用ドメインとその基礎となるデータ分布は変更される可能性があります。
特に、トレーニング中にそのようなデータが利用できない場合、悪天候によりモデルのパフォーマンスが大幅に低下する可能性があります。さらに、モデルが新しいドメインに徐々に適応されると、壊滅的な忘却が発生し、以前に観察されたドメインのパフォーマンスが大幅に低下します。

壊滅的な物忘れの減少については最近の進歩にもかかわらず、その原因と影響は依然として不明瞭です。
したがって、悪天候下でのドメイン増分学習中にセマンティック セグメンテーション モデルの表現がどのような影響を受けるかを研究します。
私たちの実験と表現分析によると、壊滅的な忘却は主にドメイン増分学習における低レベルの特徴の変更によって引き起こされ、事前トレーニングと画像拡張を使用してソース ドメインでより一般的な特徴を学習すると、後続のタスクでの効率的な特徴の再利用につながることが示されています。
これにより、壊滅的な物忘れが大幅に減少します。
これらの発見は、効果的な継続学習アルゴリズムのための一般化された機能を促進する方法の重要性を強調しています。

要約(オリジナル)

Deep neural networks for scene perception in automated vehicles achieve excellent results for the domains they were trained on. However, in real-world conditions, the domain of operation and its underlying data distribution are subject to change. Adverse weather conditions, in particular, can significantly decrease model performance when such data are not available during training.Additionally, when a model is incrementally adapted to a new domain, it suffers from catastrophic forgetting, causing a significant drop in performance on previously observed domains. Despite recent progress in reducing catastrophic forgetting, its causes and effects remain obscure. Therefore, we study how the representations of semantic segmentation models are affected during domain-incremental learning in adverse weather conditions. Our experiments and representational analyses indicate that catastrophic forgetting is primarily caused by changes to low-level features in domain-incremental learning and that learning more general features on the source domain using pre-training and image augmentations leads to efficient feature reuse in subsequent tasks, which drastically reduces catastrophic forgetting. These findings highlight the importance of methods that facilitate generalized features for effective continual learning algorithms.

arxiv情報

著者 Tobias Kalb,Jürgen Beyerer
発行日 2023-06-12 11:54:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク