Finding Foundation Models for Time Series Classification with a PreText Task

要約

過去 10 年にわたり、時系列分類 (TSC) への注目が高まっています。
さまざまな方法が検討されてきましたが、特に畳み込みニューラル ネットワーク (CNN) を介した深層学習が効果的なアプローチとして際立っています。
ただし、利用できるトレーニング データが限られているため、過剰適合問題を克服する TSC の基礎モデルを定義することは依然として困難な作業です。
UCR アーカイブは、動作認識から ECG ベースの心臓病検出まで幅広いデータセットを網羅しており、さまざまな TSC シナリオでこの問題を調査するための主要な例として機能します。
このペーパーでは、事前トレーニングされたドメイン基盤モデルを導入することで、過剰適合の課題に対処します。
私たちの方法論の重要な側面は、複数のデータセットにまたがる新しい口実タスクです。
このタスクは、さまざまなデータセットに適用できる柔軟な畳み込みフィルターを作成することを目的として、各時系列サンプルの元のデータセットを識別するように設計されています。
調査プロセスは 2 つのフェーズで構成されます。1 つは口実タスクを通じてモデルが一般的な特徴を取得する事前トレーニング フェーズ、もう 1 つはその後の特定のデータセット分類のための微調整フェーズです。
UCR アーカイブに関する広範な実験により、この事前トレーニング戦略が、事前トレーニングを行わない従来のトレーニング アプローチよりも大幅に優れていることが実証されました。
この戦略は、小規模なデータセットでの過剰適合を効果的に軽減し、これらのモデルを新しいデータセットに適応させるための効率的なルートを提供するため、TSC のディープ ラーニングの機能が向上します。

要約(オリジナル)

Over the past decade, Time Series Classification (TSC) has gained an increasing attention. While various methods were explored, deep learning – particularly through Convolutional Neural Networks (CNNs)-stands out as an effective approach. However, due to the limited availability of training data, defining a foundation model for TSC that overcomes the overfitting problem is still a challenging task. The UCR archive, encompassing a wide spectrum of datasets ranging from motion recognition to ECG-based heart disease detection, serves as a prime example for exploring this issue in diverse TSC scenarios. In this paper, we address the overfitting challenge by introducing pre-trained domain foundation models. A key aspect of our methodology is a novel pretext task that spans multiple datasets. This task is designed to identify the originating dataset of each time series sample, with the goal of creating flexible convolution filters that can be applied across different datasets. The research process consists of two phases: a pre-training phase where the model acquires general features through the pretext task, and a subsequent fine-tuning phase for specific dataset classifications. Our extensive experiments on the UCR archive demonstrate that this pre-training strategy significantly outperforms the conventional training approach without pre-training. This strategy effectively reduces overfitting in small datasets and provides an efficient route for adapting these models to new datasets, thus advancing the capabilities of deep learning in TSC.

arxiv情報

著者 Ali Ismail-Fawaz,Maxime Devanne,Stefano Berretti,Jonathan Weber,Germain Forestier
発行日 2023-11-24 15:03:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク