Balanced Residual Distillation Learning for 3D Point Cloud Class-Incremental Semantic Segmentation

要約

クラス増加学習(CIL)は、新しいクラスの継続的な学習を可能にする一方で、古いクラスの壊滅的な忘却を軽減する。CILの性能を飛躍的に向上させるためには、ベースモデルから過去の知識を効果的に改良し、新しい学習とのバランスをとることが不可欠であるが、困難である。しかし、このような課題は現在の研究では考慮されていない。本研究では、このギャップに対処し、CILの性能を向上させるために、バランスの取れた残留蒸留学習フレームワーク(BRDL)を提案する。BRDLは、ネットワーク構造を拡張することで過去の知識を動的に洗練する残差蒸留戦略と、クラスの偏りを緩和し、古いクラスと新しいクラスの間で学習のバランスをとるためのバランス擬似ラベル学習戦略を導入する。提案するBRDLを、データが順序付けされておらず構造化されていない、困難な3次元点群セマンティックセグメンテーション課題に適用する。広範な実験結果は、BRDLがクラスバイアスのあるシナリオにおいて卓越したバランス能力を持つ新たなベンチマークを設定することを示している。

要約(オリジナル)

Class-incremental learning (CIL) enables continuous learning of new classes while mitigating catastrophic forgetting of old ones. For the performance breakthrough of CIL, it is essential yet challenging to effectively refine past knowledge from the base model and balance it with new learning. However, such a challenge has not been considered in current research. This work proposes a balanced residual distillation learning framework (BRDL) to address this gap and advance CIL performance. BRDL introduces a residual distillation strategy to dynamically refine past knowledge by expanding the network structure and a balanced pseudo-label learning strategy to mitigate class bias and balance learning between old and new classes. We apply the proposed BRDL to a challenging 3D point cloud semantic segmentation task where the data is unordered and unstructured. Extensive experimental results demonstrate that BRDL sets a new benchmark with an outstanding balance capability in class-biased scenarios.

arxiv情報

著者 Yuanzhi Su,Siyuan Chen,Yuan-Gen Wang
発行日 2025-01-03 13:18:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク