An Empirical Evaluation of Multivariate Time Series Classification with Input Transformation across Different Dimensions

要約

タイトル:
異なる次元での入力変換による多変量時系列分類の実証評価

要約:
– 古くからの単変量の時系列データセットから、情報の複数のチャネルを持つ多変量の問題に移行するにあたり、機械学習・深層学習の研究では、入力データの形式に関して暗黙的に扱われることが多かった。
– 本研究では、加えられたチャネル次元が明らかに重要な役割を担っており、異なるスケーリング手法を用いることで解決の精度が大きく変わることを示した。
– 7種類のデータ変換手法を4つの時間軸で評価し、実験結果から、同じパラメータでスケーリングを行わない場合よりも、大多数のデータセットにおいて変換-次元の最適化が解決精度を向上させることを示した。向上率は0.16%から76.79%まで。
– 変換方法を一定に保った場合でも、異なる次元での適用によって結果に有意な差があることを示した。この差は0.23%から47.79%まで範囲がある。
– 最適化の傾向はデータセット・分類器に依存するため、汎用的な傾向はないことが結論付けられた。

要約(オリジナル)

In current research, machine and deep learning solutions for the classification of temporal data are shifting from single-channel datasets (univariate) to problems with multiple channels of information (multivariate). The majority of these works are focused on the method novelty and architecture, and the format of the input data is often treated implicitly. Particularly, multivariate datasets are often treated as a stack of univariate time series in terms of input preprocessing, with scaling methods applied across each channel separately. In this evaluation, we aim to demonstrate that the additional channel dimension is far from trivial and different approaches to scaling can lead to significantly different results in the accuracy of a solution. To that end, we test seven different data transformation methods on four different temporal dimensions and study their effect on the classification accuracy of five recent methods. We show that, for the large majority of tested datasets, the best transformation-dimension configuration leads to an increase in the accuracy compared to the result of each model with the same hyperparameters and no scaling, ranging from 0.16 to 76.79 percentage points. We also show that if we keep the transformation method constant, there is a statistically significant difference in accuracy results when applying it across different dimensions, with accuracy differences ranging from 0.23 to 47.79 percentage points. Finally, we explore the relation of the transformation methods and dimensions to the classifiers, and we conclude that there is no prominent general trend, and the optimal configuration is dataset- and classifier-specific.

arxiv情報

著者 Leonardos Pantiskas,Kees Verstoep,Mark Hoogendoorn,Henri Bal
発行日 2023-04-12 15:15:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク