TINYCD: A (Not So) Deep Learning Model For Change Detection

要約

本論文では、TinyCDと呼ばれる軽量で効果的な変更検出モデルを紹介する。このモデルは、産業界のニーズにより、現在の最新の変更検出モデルよりも高速かつ小型に設計されている。TinyCDは、比較された変化検出モデルより13~140倍小さく、計算量は少なくとも3分の1であるにもかかわらず、LEVIR-CDデータセットではF1スコアとIoUの両方で少なくとも1%$、WHU-CDデータセットでは8%$以上、現在の最先端モデルより優れた性能を発揮することができる。これらの結果を得るために、TinyCDは低レベルの特徴をグローバルに時間的、ローカルに空間的に利用するシャムU-Netアーキテクチャを使用している。さらに、時空間領域で特徴を混合する新しい戦略を採用し、シャムのバックボーンから得られた埋め込みをマージし、MLPブロックと結合して、新しい空間意味的注意メカニズム、Mix and Attention Mask Block (MAMB) を形成しています。ソースコード、モデル、結果はこちらから入手可能です:https://github.com/AndreaCodegoni/Tiny_model_4_CD

要約(オリジナル)

In this paper, we present a lightweight and effective change detection model, called TinyCD. This model has been designed to be faster and smaller than current state-of-the-art change detection models due to industrial needs. Despite being from 13 to 140 times smaller than the compared change detection models, and exposing at least a third of the computational complexity, our model outperforms the current state-of-the-art models by at least $1\%$ on both F1 score and IoU on the LEVIR-CD dataset, and more than $8\%$ on the WHU-CD dataset. To reach these results, TinyCD uses a Siamese U-Net architecture exploiting low-level features in a globally temporal and locally spatial way. In addition, it adopts a new strategy to mix features in the space-time domain both to merge the embeddings obtained from the Siamese backbones, and, coupled with an MLP block, it forms a novel space-semantic attention mechanism, the Mix and Attention Mask Block (MAMB). Source code, models and results are available here: https://github.com/AndreaCodegoni/Tiny_model_4_CD

arxiv情報

著者 Andrea Codegoni,Gabriele Lombardi,Alessandro Ferrari
発行日 2022-11-07 16:28:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク