Standardizing and Centralizing Datasets to Enable Efficient Training of Agricultural Deep Learning Models

要約

近年、ディープラーニングモデルが農業用コンピュータビジョンの標準となっています。このようなモデルは通常、より一般的な非農業データセットに元々適合していたモデル重みを使用して農業タスクに微調整されます。この農業に特化した微調整の欠如は、潜在的にトレーニング時間とリソースの使用を増加させ、モデル性能を低下させ、全体的なデータ効率の低下をもたらします。この限界を克服するため、我々は3つの異なるタスクのための既存のパブリックデータセットを幅広く収集し、それらを標準化し、標準的な学習・評価パイプラインを構築することで、ベンチマークと事前学習済みモデル一式を提供する。次に、深層学習タスクで一般的に使用されているが、農業のためのドメイン固有のアプリケーションでは未開拓の手法を使用して、多くの実験を実施する。この実験により、既存のパイプラインに大規模な変更を加えることなく、農業用深層学習モデルを学習する際のデータ効率を向上させるための多くのアプローチを開発することができました。その結果、農業用に事前学習したモデルの重みの使用や、データ処理パイプラインに特定の空間補強を採用するなど、わずかな学習修正でも、モデル性能を大幅に向上させ、収束時間を短縮して学習リソースを節約できることが実証されました。さらに、低品質なアノテーションで学習したモデルでも、高品質の同等モデルと同程度の性能を発揮できることがわかり、低品質なアノテーションを持つデータセットでも学習に利用でき、現在利用できるデータセットのプールを拡大できることが示唆された。本手法は、農業分野のディープラーニングに広く適用可能であり、データ効率の大幅な改善の可能性が高い。

要約(オリジナル)

In recent years, deep learning models have become the standard for agricultural computer vision. Such models are typically fine-tuned to agricultural tasks using model weights that were originally fit to more general, non-agricultural datasets. This lack of agriculture-specific fine-tuning potentially increases training time and resource use, and decreases model performance, leading an overall decrease in data efficiency. To overcome this limitation, we collect a wide range of existing public datasets for three distinct tasks, standardize them, and construct standard training and evaluation pipelines, providing us with a set of benchmarks and pretrained models. We then conduct a number of experiments using methods which are commonly used in deep learning tasks, but unexplored in their domain-specific applications for agriculture. Our experiments guide us in developing a number of approaches to improve data efficiency when training agricultural deep learning models, without large-scale modifications to existing pipelines. Our results demonstrate that even slight training modifications, such as using agricultural pretrained model weights, or adopting specific spatial augmentations into data processing pipelines, can significantly boost model performance and result in shorter convergence time, saving training resources. Furthermore, we find that even models trained on low-quality annotations can produce comparable levels of performance to their high-quality equivalents, suggesting that datasets with poor annotations can still be used for training, expanding the pool of currently available datasets. Our methods are broadly applicable throughout agricultural deep learning, and present high potential for significant data efficiency improvements.

arxiv情報

著者 Amogh Joshi,Dario Guevara,Mason Earles
発行日 2022-08-04 15:10:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク