要約
植物害虫を識別するための実用的で堅牢な自動診断システムの開発は、効率的な農業生産にとって不可欠です。
この論文では、まず、画像ベースの植物害虫識別の分野でこれまで対処されていない 3 つの重要な研究課題 (RQ) を調査します。
得られた知識に基づいて、植物の 4 つの部分 (キュウリ、トマト、イチゴ、イチゴの葉の表、葉の裏、果実、花) の 78 の組み合わせで構成される 334K 画像を使用して、正確で堅牢かつ高速な植物害虫識別フレームワークを開発します。
ナス)と 27 の農場で捕獲された 20 種類の害虫。
その結果、以下のことが分かりました。
(1) モデルを適切に評価するには、テスト データにトレーニング画像が収集されたフィールドの画像が含まれないようにするか、テスト セットの多様性を高めるためのその他の考慮事項を考慮する必要があります。
(2) 葉や果実などの ROI を事前に抽出することで、識別精度の向上に役立ちます。
(3) 同じ防除方法や同じ害虫に対する作物間訓練方法を用いた近縁種の統合は効果的である。
当社の 2 段階の植物害虫識別フレームワークは、ROI 検出と畳み込みニューラル ネットワーク (CNN) ベースの識別を可能にし、12,223 件のテスト データの平均精度とマクロ F1 スコアでそれぞれ 91.0% と 88.5% という非常に実用的なパフォーマンスを達成しました。
目に見えないフィールドから収集された 21 クラスのうち、318,971 個のサンプルからの 25 クラスの画像がトレーニングに使用されました。
平均識別時間は 476 ミリ秒/画像でした。
要約(オリジナル)
The development of practical and robust automated diagnostic systems for identifying plant pests is crucial for efficient agricultural production. In this paper, we first investigate three key research questions (RQs) that have not been addressed thus far in the field of image-based plant pest identification. Based on the knowledge gained, we then develop an accurate, robust, and fast plant pest identification framework using 334K images comprising 78 combinations of four plant portions (the leaf front, leaf back, fruit, and flower of cucumber, tomato, strawberry, and eggplant) and 20 pest species captured at 27 farms. The results reveal the following. (1) For an appropriate evaluation of the model, the test data should not include images of the field from which the training images were collected, or other considerations to increase the diversity of the test set should be taken into account. (2) Pre-extraction of ROIs, such as leaves and fruits, helps to improve identification accuracy. (3) Integration of closely related species using the same control methods and cross-crop training methods for the same pests, are effective. Our two-stage plant pest identification framework, enabling ROI detection and convolutional neural network (CNN)-based identification, achieved a highly practical performance of 91.0% and 88.5% in mean accuracy and macro F1 score, respectively, for 12,223 instances of test data of 21 classes collected from unseen fields, where 25 classes of images from 318,971 samples were used for training; the average identification time was 476 ms/image.
arxiv情報
著者 | Ryosuke Wayama,Yuki Sasaki,Satoshi Kagiwada,Nobusuke Iwasaki,Hitoshi Iyatomi |
発行日 | 2024-07-25 12:49:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google