OAM-TCD: A globally diverse dataset of high-resolution tree cover maps

要約

樹木被覆率を正確に定量化することは、生態系を監視し、復元された場所の進捗状況を評価するための重要な指標です。
最近の研究では、深層学習ベースのセグメンテーション アルゴリズムが、高解像度の航空写真や衛星画像を使用して、国や大陸のスケールで樹木を正確にマッピングできることが示されています。
個々の木を識別するには高解像度 (理想的にはサブメートル) でのマッピングが必要ですが、インスタンス レベルのアノテーションを含むオープンアクセス データセットはほとんどなく、存在するデータセットは小さいか地理的に多様ではありません。
OpenAerialMap (OAM) から取得した高解像度航空画像における個々の樹冠描写 (TCD) のための新しいオープンアクセス データセットを紹介します。
私たちのデータセットである OAM-TCD は、解像度 10 cm/px の 5,072 枚の 2048×2048 px 画像で構成されており、280,000 を超える個々の樹木と 56,000 の木グループに対応する、人間がラベル付けしたインスタンス マスクが関連付けられています。
世界中から画像をサンプリングすることで、さまざまな陸上生物群系や都市環境と自然環境の両方における樹木の多様性と形態をより適切に捉えることができます。
データセットを使用して、既存の最先端モデルと比べても遜色のない参照インスタンスとセマンティック セグメンテーション モデルをトレーニングします。
k 分割相互検証と既存のデータセットとの比較を通じてパフォーマンスを評価します。
さらに、スイス上空で撮影された独立した航空画像で説得力のある結果を実証し、自治体の樹木目録やチューリッヒ市の LIDAR 由来の樹冠マップと比較しました。
当社のデータセット、モデル、トレーニング/ベンチマーク コードは、それぞれクリエイティブ コモンズ (大部分が CC BY 4.0)、および Apache 2.0 という寛容なオープンソース ライセンスの下で公開されています。

要約(オリジナル)

Accurately quantifying tree cover is an important metric for ecosystem monitoring and for assessing progress in restored sites. Recent works have shown that deep learning-based segmentation algorithms are capable of accurately mapping trees at country and continental scales using high-resolution aerial and satellite imagery. Mapping at high (ideally sub-meter) resolution is necessary to identify individual trees, however there are few open-access datasets containing instance level annotations and those that exist are small or not geographically diverse. We present a novel open-access dataset for individual tree crown delineation (TCD) in high-resolution aerial imagery sourced from OpenAerialMap (OAM). Our dataset, OAM-TCD, comprises 5072 2048×2048 px images at 10 cm/px resolution with associated human-labeled instance masks for over 280k individual and 56k groups of trees. By sampling imagery from around the world, we are able to better capture the diversity and morphology of trees in different terrestrial biomes and in both urban and natural environments. Using our dataset, we train reference instance and semantic segmentation models that compare favorably to existing state-of-the-art models. We assess performance through k-fold cross-validation and comparison with existing datasets; additionally we demonstrate compelling results on independent aerial imagery captured over Switzerland and compare to municipal tree inventories and LIDAR-derived canopy maps in the city of Zurich. Our dataset, models and training/benchmark code are publicly released under permissive open-source licenses: Creative Commons (majority CC BY 4.0), and Apache 2.0 respectively.

arxiv情報

著者 Josh Veitch-Michaelis,Andrew Cottam,Daniella Schweizer,Eben N. Broadbent,David Dao,Ce Zhang,Angelica Almeyda Zambrano,Simeon Max
発行日 2024-07-16 14:11:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク