要約
近年、人工知能の人気が高まっていることにより、特に農業分野で画像分類への関心が高まっています。
コンピューター ビジョン、機械学習、ディープ ラーニングの助けにより、この分野は大きな変革を遂げ、現場での作物分類のための新しい技術の開発につながりました。
さまざまな画像分類技術について広範な研究が行われているにもかかわらず、そのほとんどには、精度の低さ、データの使用の制限、レポートモデルのサイズと予測の欠如などの制限があります。
最も重要な制限は、モデルの説明可能性の必要性です。
この研究では、作物分類のための 4 つの異なるアプローチを評価しています。1 つは、SIFT、ORB、カラー ヒストグラムなどの手作りの特徴抽出手法を使用した従来の ML です。
カスタム設計の CNN と AlexNet のような確立された DL アーキテクチャ。
EfficientNetV2、ResNet152V2、Xception、Inception-ResNetV2、MobileNetV3 など、ImageNet を使用して事前トレーニングされた 5 つのモデルでの転移学習。
そして、自己監視型ビジョントランスフォーマーモデルであるYOLOv8やDINOv2などの最先端の基盤モデルです。
すべてのモデルが良好なパフォーマンスを示しましたが、Xception は一般化の点ですべてのモデルを上回っており、モデル サイズ 80.03 MB、予測時間 0.0633 秒でテスト データに対して 98% の精度を達成しました。
この研究の重要な側面は、すべてのモデルの説明可能性を提供するために Explainable AI を適用したことでした。
このジャーナルは、LIME、SHAP、および GradCAM を使用した Xception モデルの説明可能性を示し、モデルの予測の透明性と信頼性を保証します。
この調査では、タスク固有のニーズに応じて適切なモデルを選択することの重要性が強調されています。
また、農業に AI を導入する際の説明可能性の重要な役割も強調し、AI を活用した作物管理戦略の強化に役立つ洞察力に富んだ情報を提供します。
要約(オリジナル)
The increasing popularity of Artificial Intelligence in recent years has led to a surge in interest in image classification, especially in the agricultural sector. With the help of Computer Vision, Machine Learning, and Deep Learning, the sector has undergone a significant transformation, leading to the development of new techniques for crop classification in the field. Despite the extensive research on various image classification techniques, most have limitations such as low accuracy, limited use of data, and a lack of reporting model size and prediction. The most significant limitation of all is the need for model explainability. This research evaluates four different approaches for crop classification, namely traditional ML with handcrafted feature extraction methods like SIFT, ORB, and Color Histogram; Custom Designed CNN and established DL architecture like AlexNet; transfer learning on five models pre-trained using ImageNet such as EfficientNetV2, ResNet152V2, Xception, Inception-ResNetV2, MobileNetV3; and cutting-edge foundation models like YOLOv8 and DINOv2, a self-supervised Vision Transformer Model. All models performed well, but Xception outperformed all of them in terms of generalization, achieving 98% accuracy on the test data, with a model size of 80.03 MB and a prediction time of 0.0633 seconds. A key aspect of this research was the application of Explainable AI to provide the explainability of all the models. This journal presents the explainability of Xception model with LIME, SHAP, and GradCAM, ensuring transparency and trustworthiness in the models’ predictions. This study highlights the importance of selecting the right model according to task-specific needs. It also underscores the important role of explainability in deploying AI in agriculture, providing insightful information to help enhance AI-driven crop management strategies.
arxiv情報
著者 | Sudi Murindanyi,Joyce Nakatumba-Nabende,Rahman Sanya,Rose Nakibuule,Andrew Katumba |
発行日 | 2024-08-22 14:20:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google