Explainable Light-Weight Deep Learning Pipeline for Improved Drought Stress Identification

要約

作物の干ばつストレスを早期に特定することは、効果的な緩和策を実施し、収量損失を減らすために不可欠です。
非侵襲的なイメージング技術は、水分欠乏下の植物の微妙な生理学的変化を捉えることで、計り知れない可能性を秘めています。
センサーベースの画像データは、機械学習および深層学習アルゴリズムの豊富な情報源として機能し、干ばつストレスの特定を目的としたさらなる分析を容易にします。
これらのアプローチは好ましい結果をもたらしますが、リアルタイムのフィールドアプリケーションには、自然の農業条件の複雑さに合わせて特別に設計されたアルゴリズムが必要です。
私たちの研究は、自然環境で UAV によって捕獲されたジャガイモ作物の干ばつストレスを分類するための新しい深層学習フレームワークを提案しています。
その斬新さは、事前にトレーニングされたネットワークと慎重に設計されたカスタム レイヤーの相乗効果にあります。
このアーキテクチャは、事前トレーニングされたネットワークの特徴抽出機能を活用すると同時に、カスタム層により目標の次元削減と強化された正則化が可能になり、最終的にパフォーマンスの向上につながります。
私たちの研究の重要な革新には、説明可能性技術である Gradient-Class Activation Mapping (Grad-CAM) の統合が含まれます。
Grad-CAM は、通常ブラック ボックスと呼ばれる深層学習モデルの内部動作に光を当てます。
Grad-CAM は、画像内でモデルの焦点領域を視覚化することにより、解釈可能性を促進し、モデルの意思決定プロセスにおける信頼を構築します。
私たちが提案したフレームワークは、特に DenseNet121 事前トレーニング済みネットワークで優れたパフォーマンスを達成し、全体の精度 91% でストレスを受けたクラスを識別する精度 97% に達しました。
既存の最先端の物体検出アルゴリズムを比較分析すると、精度と精度が大幅に向上するという点で、私たちのアプローチの優位性が明らかになります。

要約(オリジナル)

Early identification of drought stress in crops is vital for implementing effective mitigation measures and reducing yield loss. Non-invasive imaging techniques hold immense potential by capturing subtle physiological changes in plants under water deficit. Sensor based imaging data serves as a rich source of information for machine learning and deep learning algorithms, facilitating further analysis aimed at identifying drought stress. While these approaches yield favorable results, real-time field applications requires algorithms specifically designed for the complexities of natural agricultural conditions. Our work proposes a novel deep learning framework for classifying drought stress in potato crops captured by UAVs in natural settings. The novelty lies in the synergistic combination of a pre-trained network with carefully designed custom layers. This architecture leverages feature extraction capabilities of the pre-trained network while the custom layers enable targeted dimensionality reduction and enhanced regularization, ultimately leading to improved performance. A key innovation of our work involves the integration of Gradient-Class Activation Mapping (Grad-CAM), an explainability technique. Grad-CAM sheds light on the internal workings of the deep learning model, typically referred to as a black box. By visualizing the focus areas of the model within the images, Grad-CAM fosters interpretability and builds trust in the decision-making process of the model. Our proposed framework achieves superior performance, particularly with the DenseNet121 pre-trained network, reaching a precision of 97% to identify the stressed class with an overall accuracy of 91%. Comparative analysis of existing state-of-the-art object detection algorithms reveals the superiority of our approach in significantly higher precision and accuracy.

arxiv情報

著者 Aswini Kumar Patra,Lingaraj Sahoo
発行日 2024-07-31 15:22:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク