LEDCNet: A Lightweight and Efficient Semantic Segmentation Algorithm Using Dual Context Module for Extracting Ground Objects from UAV Aerial Remote Sensing Images

要約

UAV 空中リモート センシング画像のセマンティック セグメンテーションは、従来の測量とマッピングのためのより効率的で便利な測量とマッピング方法を提供します。
モデルを軽量化し、一定の精度を向上させるために、この研究では、LDMCNet と呼ばれる、UAV の空中リモート センシング画像から地上の特徴を抽出するための新しい軽量で効率的なネットワークを開発しました。
一方、この研究では、提案されたセマンティック セグメンテーション モデル用の強力な軽量バックボーン ネットワークを開発しています。
これは LDCNet と呼ばれ、新世代の軽量セマンティック セグメンテーション アルゴリズムのバックボーン ネットワークになることが期待されています。
提案されたモデルは、デュアル マルチスケール コンテキスト モジュール、つまり Atrous Space Pyramid Pooling モジュール (ASPP) と Object Context Representation モジュール (OCR) を使用します。
さらに、この研究では、ドローンからの空中リモート センシング画像のセマンティック セグメンテーションのためのプライベート データセットを構築します。
このデータ セットには、2431 個のトレーニング セット、945 個の検証セット、および 475 個のテスト セットが含まれています。
提案されたモデルは、140 万個のパラメーターと 5.48G の浮動小数点演算 (FLOP) のみで、このデータセットでうまく機能し、71.12% の平均交差対結合比 (mIoU) を達成します。
ベースライン モデルよりも 7.88% 高くなっています。
提案されたモデルの有効性を検証するために、公開データセット「LoveDA」と「CITY-OSM」でのトレーニングも優れた結果を達成し、それぞれ 65.27% と 74.39% の mIoU を達成しました。

要約(オリジナル)

Semantic segmentation of UAV aerial remote sensing images provides a more efficient and convenient surveying and mapping method for traditional surveying and mapping. In order to make the model lightweight and improve a certain accuracy, this research developed a new lightweight and efficient network for the extraction of ground features from UAV aerial remote sensing images, called LDMCNet. Meanwhile, this research develops a powerful lightweight backbone network for the proposed semantic segmentation model. It is called LDCNet, and it is hoped that it can become the backbone network of a new generation of lightweight semantic segmentation algorithms. The proposed model uses dual multi-scale context modules, namely the Atrous Space Pyramid Pooling module (ASPP) and the Object Context Representation module (OCR). In addition, this research constructs a private dataset for semantic segmentation of aerial remote sensing images from drones. This data set contains 2431 training sets, 945 validation sets, and 475 test sets. The proposed model performs well on this dataset, with only 1.4M parameters and 5.48G floating-point operations (FLOPs), achieving an average intersection-over-union ratio (mIoU) of 71.12%. 7.88% higher than the baseline model. In order to verify the effectiveness of the proposed model, training on the public datasets ‘LoveDA’ and ‘CITY-OSM’ also achieved excellent results, achieving mIoU of 65.27% and 74.39%, respectively.

arxiv情報

著者 Xiaoxiang Han,Yiman Liu,Gang Liu,Qiaohong Liu
発行日 2022-12-16 14:02:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク