Ultra-High Resolution Segmentation with Ultra-Rich Context: A Novel Benchmark

要約

超高解像度 (UHR) セグメンテーションに対する関心の高まりとその手法の急速な開発に伴い、この分野を容易にするために、完全な細粒度の高密度アノテーションを備えた広範囲のシーンをカバーする大規模なベンチマークが緊急に必要とされています。
この目的を達成するために、超リッチ コンテキストを備えた超高解像度データセットという意味で、URUR データセットが導入されました。
名前が示すように、URUR には、十分に高い解像度を持つ大量の画像 (サイズ 5,120×5,120 の画像 3,008 枚)、広範囲の複雑なシーン (63 都市から)、十分なコンテキスト (8 つのカテゴリを持つ 100 万個のインスタンス) が含まれています。
これは、DeepGlobe、Inria Aerial、UDD などを含む既存のすべての UHR データセットよりもはるかに優れています。さらに、UHR セグメンテーションのためのより効率的かつ効果的なフレームワークである WSDNet も提案しています。
特に超リッチなコンテキストの場合。
具体的には、マルチレベルの離散ウェーブレット変換 (DWT) が自然に統合され、より多くの空間詳細を保持しながら計算負荷を軽減するとともに、ウェーブレット スムーズ ロス (WSL) が統合され、元の構造化コンテキストとテクスチャを滑らかな制約で再構築します。
いくつかの UHR データセットでの実験により、その最先端のパフォーマンスが実証されました。
データセットは https://github.com/jankyee/URUR で入手できます。

要約(オリジナル)

With the increasing interest and rapid development of methods for Ultra-High Resolution (UHR) segmentation, a large-scale benchmark covering a wide range of scenes with full fine-grained dense annotations is urgently needed to facilitate the field. To this end, the URUR dataset is introduced, in the meaning of Ultra-High Resolution dataset with Ultra-Rich Context. As the name suggests, URUR contains amounts of images with high enough resolution (3,008 images of size 5,120×5,120), a wide range of complex scenes (from 63 cities), rich-enough context (1 million instances with 8 categories) and fine-grained annotations (about 80 billion manually annotated pixels), which is far superior to all the existing UHR datasets including DeepGlobe, Inria Aerial, UDD, etc.. Moreover, we also propose WSDNet, a more efficient and effective framework for UHR segmentation especially with ultra-rich context. Specifically, multi-level Discrete Wavelet Transform (DWT) is naturally integrated to release computation burden while preserve more spatial details, along with a Wavelet Smooth Loss (WSL) to reconstruct original structured context and texture with a smooth constrain. Experiments on several UHR datasets demonstrate its state-of-the-art performance. The dataset is available at https://github.com/jankyee/URUR.

arxiv情報

著者 Deyi Ji,Feng Zhao,Hongtao Lu,Mingyuan Tao,Jieping Ye
発行日 2023-05-18 11:54:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク