Multi-Modal Continual Test-Time Adaptation for 3D Semantic Segmentation

要約

継続的テスト時間適応 (CTTA) は、ターゲット ドメインが静的ではなく時間の経過とともに動的であると仮定することで、従来のテスト時間適応 (TTA) を一般化します。
このホワイト ペーパーでは、3D セマンティック セグメンテーションのための CTTA の新しい拡張機能として、Multi-Modal Continual Test-Time Adaptation (MM-CTTA) について説明します。
MM-CTTA の鍵は、以前の TTA または CTTA 方法の能力を超えた継続的なドメイン シフト中の壊滅的な忘却を回避しながら、信頼できるモダリティに適応的に注意を払うことです。
このギャップを埋めるために、2 つの観点からこのタスクに対処する継続的クロスモーダル適応クラスタリング (CoMAC) と呼ばれる MM-CTTA メソッドを提案します。
一方では、潜在空間内のクラスごとの特徴と重心距離に基づいて信頼できるモダリティに注意を払うことにより、信頼できるクロスモーダル予測を生成するための適応型デュアルステージメカニズムを提案します。
一方、壊滅的な忘却なしでテスト時間の適応を実行するために、ソース知識を再訪するために擬似ソース機能を確率的に復元しながら、適応のために信頼できるターゲット機能をキャプチャするクラスごとの運動量キューを設計します。
さらに、将来の MM-CTTA の調査を容易にするために、2 つの新しいベンチマークを導入します。
私たちの実験結果は、私たちの方法が両方のベンチマークで最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

Continual Test-Time Adaptation (CTTA) generalizes conventional Test-Time Adaptation (TTA) by assuming that the target domain is dynamic over time rather than stationary. In this paper, we explore Multi-Modal Continual Test-Time Adaptation (MM-CTTA) as a new extension of CTTA for 3D semantic segmentation. The key to MM-CTTA is to adaptively attend to the reliable modality while avoiding catastrophic forgetting during continual domain shifts, which is out of the capability of previous TTA or CTTA methods. To fulfill this gap, we propose an MM-CTTA method called Continual Cross-Modal Adaptive Clustering (CoMAC) that addresses this task from two perspectives. On one hand, we propose an adaptive dual-stage mechanism to generate reliable cross-modal predictions by attending to the reliable modality based on the class-wise feature-centroid distance in the latent space. On the other hand, to perform test-time adaptation without catastrophic forgetting, we design class-wise momentum queues that capture confident target features for adaptation while stochastically restoring pseudo-source features to revisit source knowledge. We further introduce two new benchmarks to facilitate the exploration of MM-CTTA in the future. Our experimental results show that our method achieves state-of-the-art performance on both benchmarks.

arxiv情報

著者 Haozhi Cao,Yuecong Xu,Jianfei Yang,Pengyu Yin,Shenghai Yuan,Lihua Xie
発行日 2023-03-18 16:51:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク