Visual Transformer for Soil Classification

要約

私たちの食の安全は、土壌という基盤の上に築かれています。土壌が健全でなければ、農家は繊維、食料、燃料を私たちに供給することができません。土壌の種類を正確に予測することで、土壌の利用計画を立て、生産性を高めることができます。本研究では、最先端のVisual Transformerを採用し、SVM、Alexnet、Resnet、CNNなどの異なるモデルとの性能比較も行っています。さらに、本研究では、異なるVisual Transformerのアーキテクチャの違いにも着目している。土質分類のために、データセットは沖積土、赤土、黒土、粘土の4つの異なる種類の土のサンプルから構成されています。Visual Transformerは学習時に98.13%、テスト時に93.62%の精度を達成し、テストと学習の両方の面で他のモデルを凌駕している。また、Visual Transformerの性能は他のモデルの性能を少なくとも2%上回っている。したがって、この新しいVisual Transformerは土壌分類を含むComputer Visionタスクに利用することができる。

要約(オリジナル)

Our food security is built on the foundation of soil. Farmers would be unable to feed us with fiber, food, and fuel if the soils were not healthy. Accurately predicting the type of soil helps in planning the usage of the soil and thus increasing productivity. This research employs state-of-the-art Visual Transformers and also compares performance with different models such as SVM, Alexnet, Resnet, and CNN. Furthermore, this study also focuses on differentiating different Visual Transformers architectures. For the classification of soil type, the dataset consists of 4 different types of soil samples such as alluvial, red, black, and clay. The Visual Transformer model outperforms other models in terms of both test and train accuracies by attaining 98.13% on training and 93.62% while testing. The performance of the Visual Transformer exceeds the performance of other models by at least 2%. Hence, the novel Visual Transformers can be used for Computer Vision tasks including Soil Classification.

arxiv情報

著者 Aaryan Jagetia,Umang Goenka,Priyadarshini Kumari,Mary Samuel
発行日 2022-09-07 06:20:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク