HSANET: A Hybrid Self-Cross Attention Network For Remote Sensing Change Detection

要約

リモートセンシング画像変更検出タスクは、大規模な監視に不可欠な方法です。
階層的畳み込みを使用してマルチスケール機能を抽出するネットワークであるHSANETを提案します。
これには、グローバルおよびクロススケールの情報を学習し、融合するためのハイブリッドの自己触媒と分析メカニズムが組み込まれています。
これにより、HSANETはさまざまなスケールでグローバルコンテキストをキャプチャし、クロススケール機能を統合し、エッジの詳細を改良し、検出パフォーマンスを向上させることができます。
また、モデルコードhttps://github.com/chengxihan/hsanetをオープンソースします。

要約(オリジナル)

The remote sensing image change detection task is an essential method for large-scale monitoring. We propose HSANet, a network that uses hierarchical convolution to extract multi-scale features. It incorporates hybrid self-attention and cross-attention mechanisms to learn and fuse global and cross-scale information. This enables HSANet to capture global context at different scales and integrate cross-scale features, refining edge details and improving detection performance. We will also open-source our model code: https://github.com/ChengxiHAN/HSANet.

arxiv情報

著者 Chengxi Han,Xiaoyu Su,Zhiqiang Wei,Meiqi Hu,Yichu Xu
発行日 2025-04-21 15:23:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク