DDU-Net: A Domain Decomposition-based CNN for High-Resolution Image Segmentation on Multiple GPUs

要約

超高解像度画像のセグメンテーションには、空間情報の損失や計算効率の低下などの課題が伴います。
この研究では、エンコーダ/デコーダ アーキテクチャとドメイン分解戦略を組み合わせて、これらの課題に対処する新しいアプローチが提案されています。
具体的には、ドメイン分解ベースの U-Net (DDU-Net) アーキテクチャが導入されており、入力画像を重複しないパッチに分割し、個別のデバイスで個別に処理できます。
通信ネットワークが追加され、パッチ間の情報交換が容易になり、空間コンテキストの理解を強化します。
実験的検証は、通信ネットワークの有効性を測定するように設計された合成データセットに対して実行されます。
次に、現実世界のベンチマーク データ セットとして、DeepGlobe 土地被覆分類データセットでパフォーマンスがテストされます。
結果は、$16\times16$ の重複しないサブイメージに分割されたイメージのパッチ間通信を含むアプローチが、同じネットワークを使用しない場合と比較して $2-3\,\%$ 高い交差オーバーユニオン (IoU) スコアを達成することを示しています。
パッチ間通信。
通信を含むネットワークのパフォーマンスは、完全な画像でトレーニングされたベースライン U-Net のパフォーマンスと同等であり、このモデルが空間コンテキストを維持しながら超高解像度画像をセグメント化するための効果的なソリューションを提供することを示しています。
コードは https://github.com/corne00/HiRes-Seg-CNN で入手できます。

要約(オリジナル)

The segmentation of ultra-high resolution images poses challenges such as loss of spatial information or computational inefficiency. In this work, a novel approach that combines encoder-decoder architectures with domain decomposition strategies to address these challenges is proposed. Specifically, a domain decomposition-based U-Net (DDU-Net) architecture is introduced, which partitions input images into non-overlapping patches that can be processed independently on separate devices. A communication network is added to facilitate inter-patch information exchange to enhance the understanding of spatial context. Experimental validation is performed on a synthetic dataset that is designed to measure the effectiveness of the communication network. Then, the performance is tested on the DeepGlobe land cover classification dataset as a real-world benchmark data set. The results demonstrate that the approach, which includes inter-patch communication for images divided into $16\times16$ non-overlapping subimages, achieves a $2-3\,\%$ higher intersection over union (IoU) score compared to the same network without inter-patch communication. The performance of the network which includes communication is equivalent to that of a baseline U-Net trained on the full image, showing that our model provides an effective solution for segmenting ultra-high-resolution images while preserving spatial context. The code is available at https://github.com/corne00/HiRes-Seg-CNN.

arxiv情報

著者 Corné Verburg,Alexander Heinlein,Eric C. Cyr
発行日 2024-08-01 01:59:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65N55, 68T07, 68U10, 68W10, 68W15, cs.CV, cs.DC, cs.LG, I.2.6 パーマリンク