Balanced Residual Distillation Learning for 3D Point Cloud Class-Incremental Semantic Segmentation

要約

クラス増加学習(CIL)は、継続的に追加される新しいクラスから学習することによって、古いクラスの壊滅的な忘却を防ぎつつ、流入する情報を処理することに成功している。CILの性能を飛躍的に向上させるためには、ベースモデルから過去の知識を効果的に改良し、新しい学習とのバランスをとることが不可欠である。しかし、このような問題は現在の研究ではまだ考慮されていない。本研究では、このような観点からCILの可能性を探り、CILの性能を新たな高みへと押し上げるための新しいバランス残余蒸留フレームワーク(BRD-CIL)を提案する。具体的には、BRD-CILは残差蒸留学習戦略を設計し、ベースモデルとターゲットモデル間の残差を捕捉するためにネットワーク構造を動的に拡張し、過去の知識を効果的に改良することができる。さらに、BRD-CILは、古いクラスへの選好を低減するガイダンスマスクを生成することで、バランスの取れた擬似ラベル学習戦略を設計し、新しいクラスと古いクラスからのバランスの取れた学習を保証する。提案したBRD-CILを、データが非順序かつ非構造化である、困難な3次元点群セマンティックセグメンテーション課題に適用する。広範な実験結果は、BRD-CILがクラスに偏ったシナリオにおいて卓越したバランス能力を持つ新たなベンチマークを設定することを示す。

要約(オリジナル)

Class-incremental learning (CIL) thrives due to its success in processing the influx of information by learning from continuously added new classes while preventing catastrophic forgetting about the old ones. It is essential for the performance breakthrough of CIL to effectively refine past knowledge from the base model and balance it with new learning. However, such an issue has not yet been considered in current research. In this work, we explore the potential of CIL from these perspectives and propose a novel balanced residual distillation framework (BRD-CIL) to push the performance bar of CIL to a new higher level. Specifically, BRD-CIL designs a residual distillation learning strategy, which can dynamically expand the network structure to capture the residuals between the base and target models, effectively refining the past knowledge. Furthermore, BRD-CIL designs a balanced pseudo-label learning strategy by generating a guidance mask to reduce the preference for old classes, ensuring balanced learning from new and old classes. We apply the proposed BRD-CIL to a challenging 3D point cloud semantic segmentation task where the data are unordered and unstructured. Extensive experimental results demonstrate that BRD-CIL sets a new benchmark with an outstanding balance capability in class-biased scenarios.

arxiv情報

著者 Yuanzhi Su,Siyuan Chen,Yuan-Gen Wang
発行日 2024-08-02 16:09:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク