From Seedling to Harvest: The GrowingSoy Dataset for Weed Detection in Soy Crops via Instance Segmentation

要約

深層学習、特に畳み込みニューラル ネットワーク (CNN) は、コンピューター ビジョン、特に農業作業におけるその有効性で大きな注目を集めています。
インスタンスのセグメンテーションの最近の進歩により、画像分類の精度が向上しました。
この研究では、インスタンスのセグメンテーションを通じて雑草や大豆植物を検出するニューラル ネットワークをトレーニングするための包括的なデータセットを紹介します。
私たちのデータセットは大豆の成長のさまざまな段階をカバーしており、細心の注意を払って注釈が付けられた 1,000 枚の画像とともに雑草侵入の影響を時系列で把握できます。
また、このデータセットでトレーニングされた 6 つの最先端モデルも提供しており、プランテーション プロセスのあらゆる段階で大豆と雑草を理解して検出できます。
このデータセットを雑草と大豆のセグメンテーションに使用することにより、YOLOv8X モデルですべての植物クラスにわたってセグメンテーションの平均精度 79.1% と平均再現率 69.2% を達成しました。
さらに、YOLOv8M モデルは、カルル雑草のセグメンテーションで 78.7%、イネ科の雑草セグメンテーションで 69.7%、ダイズ植物のセグメンテーションで 90.1% の平均精度 (mAp-50) を達成しました。

要約(オリジナル)

Deep learning, particularly Convolutional Neural Networks (CNNs), has gained significant attention for its effectiveness in computer vision, especially in agricultural tasks. Recent advancements in instance segmentation have improved image classification accuracy. In this work, we introduce a comprehensive dataset for training neural networks to detect weeds and soy plants through instance segmentation. Our dataset covers various stages of soy growth, offering a chronological perspective on weed invasion’s impact, with 1,000 meticulously annotated images. We also provide 6 state of the art models, trained in this dataset, that can understand and detect soy and weed in every stage of the plantation process. By using this dataset for weed and soy segmentation, we achieved a segmentation average precision of 79.1% and an average recall of 69.2% across all plant classes, with the YOLOv8X model. Moreover, the YOLOv8M model attained 78.7% mean average precision (mAp-50) in caruru weed segmentation, 69.7% in grassy weed segmentation, and 90.1% in soy plant segmentation.

arxiv情報

著者 Raul Steinmetz,Victor A. Kich,Henrique Krever,Joao D. Rigo Mazzarolo,Ricardo B. Grando,Vinicius Marini,Celio Trois,Ard Nieuwenhuizen
発行日 2024-06-05 03:22:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク