Data Augmentation for Multivariate Time Series Classification: An Experimental Study

要約

私たちの研究では、UCR アーカイブのデータセットに焦点を当て、多変量時系列モデルのパフォーマンスに対するデータ拡張の影響を調査しています。
これらのデータセットのサイズは限られているにもかかわらず、Rocket モデルと InceptionTime モデルを使用して 13 個のデータセットのうち 10 個で分類精度の向上を達成しました。
これは、コンピュータ ビジョンで見られる進歩と並行して、効果的なモデルをトレーニングする際に十分なデータが重要な役割を果たしていることを強調しています。
私たちの研究では、革新的な方法で既存の手法を多変量時系列分類の領域に適応させて適用することを掘り下げています。
これらの手法を包括的に探求することで、時系列分析におけるデータ不足に対処するための新たな標準が確立され、従来のモデルと深層学習モデルの両方の可能性を引き出すには多様な拡張戦略が重要であることが強調されます。
さらに、さまざまな拡張技術を綿密に分析して適用することで、戦略的なデータ強化によってモデルの精度が向上することを実証します。
これは、時系列分析における今後の研究のベンチマークを確立するだけでなく、利用可能なデータが限られている中でモデルのパフォーマンスを向上させるために、さまざまな拡張アプローチを採用することの重要性も強調します。

要約(オリジナル)

Our study investigates the impact of data augmentation on the performance of multivariate time series models, focusing on datasets from the UCR archive. Despite the limited size of these datasets, we achieved classification accuracy improvements in 10 out of 13 datasets using the Rocket and InceptionTime models. This highlights the essential role of sufficient data in training effective models, paralleling the advancements seen in computer vision. Our work delves into adapting and applying existing methods in innovative ways to the domain of multivariate time series classification. Our comprehensive exploration of these techniques sets a new standard for addressing data scarcity in time series analysis, emphasizing that diverse augmentation strategies are crucial for unlocking the potential of both traditional and deep learning models. Moreover, by meticulously analyzing and applying a variety of augmentation techniques, we demonstrate that strategic data enrichment can enhance model accuracy. This not only establishes a benchmark for future research in time series analysis but also underscores the importance of adopting varied augmentation approaches to improve model performance in the face of limited data availability.

arxiv情報

著者 Romain Ilbert,Thai V. Hoang,Zonghua Zhang
発行日 2024-06-10 17:58:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク