Depth Any Canopy: Leveraging Depth Foundation Models for Canopy Height Estimation

要約

地球全体の樹冠の高さを推定することは、森林保全と気候変動への応用にとって非常に重要です。
ただし、LiDAR を使用して高解像度のグラウンド トゥルース キャノピーの高さを取得するには費用がかかり、世界中で利用できるわけではありません。
効率的な代替方法は、単一ビューの遠隔検知画像を操作するように樹冠高推定器をトレーニングすることです。
このアプローチの主な障害は、これらの方法がグローバルかつ一般的ではないエッジ ケース全体で適切に一般化するには、大量のトレーニング データが必要であることです。
最近の単眼深度推定基礎モデルは、複雑なシーンでも強力なゼロショット性能を示しています。
この論文では、これらのモデルによって学習された表現を活用して、樹冠の高さを測定するためのリモートセンシング領域に移行します。
私たちの調査結果は、私たちが提案したDepth Any Canopy(樹冠の高さ推定用にDepth Anything v2モデルを微調整した結果)が、現在の最先端のソリューションを上回る、優れたまたは同等のパフォーマンスを提供する高性能かつ効率的なソリューションを提供することを示唆しています。
計算リソースとパラメータの一部。
さらに、私たちのアプローチでは、1.30 ドル未満のコンピューティングが必要で、推定二酸化炭素排出量は 0.14 kgCO2 になります。
コード、実験結果、モデルのチェックポイントは、https://github.com/DarthReca/ Depth-any-canopy で公開されています。

要約(オリジナル)

Estimating global tree canopy height is crucial for forest conservation and climate change applications. However, capturing high-resolution ground truth canopy height using LiDAR is expensive and not available globally. An efficient alternative is to train a canopy height estimator to operate on single-view remotely sensed imagery. The primary obstacle to this approach is that these methods require significant training data to generalize well globally and across uncommon edge cases. Recent monocular depth estimation foundation models have show strong zero-shot performance even for complex scenes. In this paper we leverage the representations learned by these models to transfer to the remote sensing domain for measuring canopy height. Our findings suggest that our proposed Depth Any Canopy, the result of fine-tuning the Depth Anything v2 model for canopy height estimation, provides a performant and efficient solution, surpassing the current state-of-the-art with superior or comparable performance using only a fraction of the computational resources and parameters. Furthermore, our approach requires less than \$1.30 in compute and results in an estimated carbon footprint of 0.14 kgCO2. Code, experimental results, and model checkpoints are openly available at https://github.com/DarthReca/depth-any-canopy.

arxiv情報

著者 Daniele Rege Cambrin,Isaac Corley,Paolo Garza
発行日 2024-08-08 15:24:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク