要約
教師なしドメイン適応 (UDA) は、ラベル付きソース データを利用して、ラベルなしターゲット データのモデルをトレーニングすることを目的としています。
コンピューター ビジョンや自然言語処理などの分野では広範な研究が行われているにもかかわらず、医療や製造から地球観察や人間の活動認識に至るまで、実世界に広く応用されている時系列データについては、UDA はまだ研究されていません。
私たちの論文では、深層学習手法に焦点を当て、時系列分類のための UDA 手法を評価するための包括的なベンチマークを導入することで、このギャップに対処しています。
当社は、さまざまなドメイン シフトと時間ダイナミクスをカバーする 7 つの新しいベンチマーク データセットを提供し、時系列データに対する最先端のニューラル ネットワーク バックボーン (例: インセプション) を使用した公正で標準化された UDA 手法の評価を促進します。
このベンチマークは、ドメイン適応の教師なしの性質を維持しながら、評価されたアプローチの長所と限界についての洞察を提供し、実際の問題に直接適用できるようにします。
私たちの論文は、研究者や実務者にとって重要なリソースとして機能し、時系列データのドメイン適応ソリューションを推進し、この重要な分野でのイノベーションを促進します。
このベンチマークの実装コードは、https://github.com/EricssonResearch/UDA-4-TSC で入手できます。
要約(オリジナル)
Unsupervised Domain Adaptation (UDA) aims to harness labeled source data to train models for unlabeled target data. Despite extensive research in domains like computer vision and natural language processing, UDA remains underexplored for time series data, which has widespread real-world applications ranging from medicine and manufacturing to earth observation and human activity recognition. Our paper addresses this gap by introducing a comprehensive benchmark for evaluating UDA techniques for time series classification, with a focus on deep learning methods. We provide seven new benchmark datasets covering various domain shifts and temporal dynamics, facilitating fair and standardized UDA method assessments with state of the art neural network backbones (e.g. Inception) for time series data. This benchmark offers insights into the strengths and limitations of the evaluated approaches while preserving the unsupervised nature of domain adaptation, making it directly applicable to practical problems. Our paper serves as a vital resource for researchers and practitioners, advancing domain adaptation solutions for time series data and fostering innovation in this critical field. The implementation code of this benchmark is available at https://github.com/EricssonResearch/UDA-4-TSC.
arxiv情報
著者 | Hassan Ismail Fawaz,Ganesh Del Grosso,Tanguy Kerdoncuff,Aurelie Boisbunon,Illyyne Saffar |
発行日 | 2023-12-15 15:03:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google