Generating Synthetic Time Series Data for Cyber-Physical Systems

要約

データ拡張は、時系列ドメインにおける深層学習アプリケーションの重要な促進手段です。
文献ではギャップが特定されており、時系列でのデータ拡張のためのドミナント シーケンス モデルであるトランスフォーマーのまばらな探索が実証されています。
いくつかの成功した先行技術をハイブリッド化したアーキテクチャが提案され、強力な時間領域の類似性メトリックを使用してテストされます。
結果は、この領域の課題と、将来の研究のためのいくつかの貴重な方向性を示唆しています。

要約(オリジナル)

Data augmentation is an important facilitator of deep learning applications in the time series domain. A gap is identified in the literature, demonstrating sparse exploration of the transformer, the dominant sequence model, for data augmentation in time series. A architecture hybridizing several successful priors is put forth and tested using a powerful time domain similarity metric. Results suggest the challenge of this domain, and several valuable directions for future work.

arxiv情報

著者 Alexander Sommers,Somayeh Bakhtiari Ramezani,Logan Cummins,Sudip Mittal,Shahram Rahimi,Maria Seale,Joseph Jaboure
発行日 2024-04-12 16:55:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク