Low-Resource Crop Classification from Multi-Spectral Time Series Using Lossless Compressors

要約

ディープラーニングは、マルチスペクトル時間データを用いた作物分類の精度を大幅に向上させた。しかし、これらのモデルは多数のパラメータを持つ複雑な構造を持ち、大量のデータとコストのかかる学習を必要とする。ラベル付けされたサンプルが少ない低リソース状況では、データが不十分なため、ディープラーニングモデルの性能は低い。逆に、コンプレッサーはデータ型にとらわれず、ノンパラメトリック手法は基礎となる仮定を持ち込まない。この洞察に触発され、我々は、これらの状況に対処することを目的とした、深層学習モデルの非トレーニング代替法を提案する。具体的には、反射率を記号表現に変換する記号表現モジュールを提案する。次に、シンボル表現をチャネル次元と時間次元の両方で相互変換し、シンボル埋め込みを生成する。次に、任意の2つのシンボル埋め込み間の相関を測定するために、マルチスケール正規化圧縮距離(MNCD)が設計される。最後に、MNCDに基づいて、k-nearest-neighbor分類器kNNのみを用いて、高品質のクロップ分類を達成することができる。フレームワーク全体はすぐに使用でき、軽量である。訓練なしで、3つのベンチマークデータセットで大規模に訓練された7つの高度なディープラーニングモデルを平均して上回った。また、作物ラベルが疎な数ショットの設定においても、これらのモデルの半分以上を上回る。したがって、我々の非トレーニングフレームワークの高い性能とロバスト性は、実世界の作物マッピングに真に適用可能である。コードはhttps://github.com/qinfengsama/Compressor-Based-Crop-Mapping。

要約(オリジナル)

Deep learning has significantly improved the accuracy of crop classification using multispectral temporal data. However, these models have complex structures with numerous parameters, requiring large amounts of data and costly training. In low-resource situations with fewer labeled samples, deep learning models perform poorly due to insufficient data. Conversely, compressors are data-type agnostic, and non-parametric methods do not bring underlying assumptions. Inspired by this insight, we propose a non-training alternative to deep learning models, aiming to address these situations. Specifically, the Symbolic Representation Module is proposed to convert the reflectivity into symbolic representations. The symbolic representations are then cross-transformed in both the channel and time dimensions to generate symbolic embeddings. Next, the Multi-scale Normalised Compression Distance (MNCD) is designed to measure the correlation between any two symbolic embeddings. Finally, based on the MNCDs, high quality crop classification can be achieved using only a k-nearest-neighbor classifier kNN. The entire framework is ready-to-use and lightweight. Without any training, it outperformed, on average, 7 advanced deep learning models trained at scale on three benchmark datasets. It also outperforms more than half of these models in the few-shot setting with sparse crop labels. Therefore, the high performance and robustness of our non-training framework makes it truly applicable to real-world crop mapping. Codes are available at: https://github.com/qinfengsama/Compressor-Based-Crop-Mapping.

arxiv情報

著者 Wei Cheng,Hongrui Ye,Xiao Wen,Jiachen Zhang,Jiping Xu,Feifan Zhang
発行日 2024-07-05 15:23:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク