要約
複雑なシーンやさまざまな条件では、変化を正確に識別するためには、空間的コンテキストを効果的に統合することが重要です。
ただし、現在のRS-CDメソッドには、パフォーマンスと効率のバランスの取れた考慮事項がありません。
CNNSにはグローバルなコンテキストがなく、変圧器は計算的に高価であり、MambasはCUDA依存と局所相関の損失に直面しています。
このホワイトペーパーでは、強力なXLSTMベースの特徴強化層であるコアコンポーネントを備えたCDXLSTMを提案し、線形計算の複雑さ、グローバルコンテキスト認識、強力な解釈可能性の利点を統合します。
具体的には、スケール固有の特徴エンハンサー層を紹介します。これは、セマンティックアクセラの深い特徴用にカスタマイズされた時代の世界的なグローバルパーセプトロンと、詳細に豊富な浅い浅い機能用にカスタマイズされた時代の空間的な精製所を組み込んでいます。
さらに、クロススケールのインタラクティブフュージョンモジュールを提案して、グローバルな変化表現と空間的応答を徐々に相互作用させます。
広範な実験結果は、CDXLSTMが3つのベンチマークデータセットで最先端のパフォーマンスを達成し、効率と精度の魅力的なバランスを提供することを示しています。
コードはhttps://github.com/xwmaxwma/rschangeで入手できます。
要約(オリジナル)
In complex scenes and varied conditions, effectively integrating spatial-temporal context is crucial for accurately identifying changes. However, current RS-CD methods lack a balanced consideration of performance and efficiency. CNNs lack global context, Transformers are computationally expensive, and Mambas face CUDA dependence and local correlation loss. In this paper, we propose CDXLSTM, with a core component that is a powerful XLSTM-based feature enhancement layer, integrating the advantages of linear computational complexity, global context perception, and strong interpret-ability. Specifically, we introduce a scale-specific Feature Enhancer layer, incorporating a Cross-Temporal Global Perceptron customized for semantic-accurate deep features, and a Cross-Temporal Spatial Refiner customized for detail-rich shallow features. Additionally, we propose a Cross-Scale Interactive Fusion module to progressively interact global change representations with spatial responses. Extensive experimental results demonstrate that CDXLSTM achieves state-of-the-art performance across three benchmark datasets, offering a compelling balance between efficiency and accuracy. Code is available at https://github.com/xwmaxwma/rschange.
arxiv情報
著者 | Zhenkai Wu,Xiaowen Ma,Rongrong Lian,Kai Zheng,Wei Zhang |
発行日 | 2025-04-17 16:05:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google