On Mini-Batch Training with Varying Length Time Series

要約

実際の時系列認識アプリケーションでは、さまざまな長さのパターンを持つデータを持つことができます。
ただし、人工ニューラル ネットワーク (ANN) を使用する場合は、固定サイズのミニバッチを使用するのが標準的な方法です。
これを行うために、さまざまな長さの時系列データは通常、すべてのパターンが同じ長さになるように正規化されます。
通常、これはあまり考慮せずにゼロ パディングまたは切り捨てを使用して行われます。
Dynamic Time Warping (DTW) の動的マッチング機能を利用して、データセット内の時系列の長さを正規化する新しい方法を提案します。
このようにして、データセットの典型的な機能を維持しながら、データセットの時系列の長さを固定サイズに設定できます。
実験では、2018 UCR 時系列アーカイブからのさまざまな長さの時系列を持つ 11 個のデータセットすべてが使用されます。
Convolutional Neural Network (CNN)、Long-Short Term Memory network (LSTM)、および Bidirectional LSTM (BLSTM) 上の 18 の他の長さ正規化方法と比較することにより、提案された方法を評価します。

要約(オリジナル)

In real-world time series recognition applications, it is possible to have data with varying length patterns. However, when using artificial neural networks (ANN), it is standard practice to use fixed-sized mini-batches. To do this, time series data with varying lengths are typically normalized so that all the patterns are the same length. Normally, this is done using zero padding or truncation without much consideration. We propose a novel method of normalizing the lengths of the time series in a dataset by exploiting the dynamic matching ability of Dynamic Time Warping (DTW). In this way, the time series lengths in a dataset can be set to a fixed size while maintaining features typical to the dataset. In the experiments, all 11 datasets with varying length time series from the 2018 UCR Time Series Archive are used. We evaluate the proposed method by comparing it with 18 other length normalization methods on a Convolutional Neural Network (CNN), a Long-Short Term Memory network (LSTM), and a Bidirectional LSTM (BLSTM).

arxiv情報

著者 Brian Kenji Iwana
発行日 2022-12-13 12:40:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク