PlantDet: A benchmark for Plant Detection in the Three-Rivers-Source Region

要約

タイトル:Three-Rivers-Source地域植物検出の基準であるPlantDet

要約:

– Three-Rivers-Source地域は、自然保護区として高い意義を持ち、未開発の植物資源が多数存在する。
– 植物研究と知能化した植物管理の実用的要件を満たすため、Three-Rivers-Source地域(PTRS)での植物検出のための大規模データセットを構築する。
– このデータセットは、様々なセンサーとプラットフォームでキャプチャされた、形状とサイズが異なるオブジェクトを含む6965の高解像度画像で構成されている。
– 次に、植物画像解釈の専門家チームが、21の一般的なオブジェクトカテゴリーでこれらの画像を注釈付けした。
– 完全に注釈付けされたPTRS画像には、水平の矩形でラベル付けされた122,300の植物葉のインスタンスが含まれている。
– PTRSには、密集した遮蔽、変動する葉解像度、および植物間の高い特徴類似性などの課題があるため、小さく密集したオブジェクトの検出効率を向上させるために、ウィンドウベースの効率的な自己注意モジュール(STブロック)を利用するPlantDetという新しいオブジェクト検出ネットワークを開発する。
– 実験結果は、提案された植物検出基準の効果を示し、精度が88.1%、平均精度(mAP)が77.6%で、ベースラインと比較して高い再現率を示す。
– 加えて、本手法は小さなオブジェクトの欠落の問題を効果的に克服する。
– この分野でのさらなる研究を推進するため、データとコードを関心のある者と共有する意図がある。

要約(オリジナル)

The Three-River-Source region is a highly significant natural reserve in China that harbors a plethora of untamed botanical resources. To meet the practical requirements of botanical research and intelligent plant management, we construct a large-scale dataset for Plant detection in the Three-River-Source region (PTRS). This dataset comprises 6965 high-resolution images of 2160*3840 pixels, captured by diverse sensors and platforms, and featuring objects of varying shapes and sizes. Subsequently, a team of botanical image interpretation experts annotated these images with 21 commonly occurring object categories. The fully annotated PTRS images contain 122, 300 instances of plant leaves, each labeled by a horizontal rectangle. The PTRS presents us with challenges such as dense occlusion, varying leaf resolutions, and high feature similarity among plants, prompting us to develop a novel object detection network named PlantDet. This network employs a window-based efficient self-attention module (ST block) to generate robust feature representation at multiple scales, improving the detection efficiency for small and densely-occluded objects. Our experimental results validate the efficacy of our proposed plant detection benchmark, with a precision of 88.1%, a mean average precision (mAP) of 77.6%, and a higher recall compared to the baseline. Additionally, our method effectively overcomes the issue of missing small objects. We intend to share our data and code with interested parties to advance further research in this field.

arxiv情報

著者 Huanhuan Li,Xuechao Zou,Yu-an Zhang,Jiangcai Zhaba,Guomei Li,Lamao Yongga
発行日 2023-04-11 04:18:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク