SMORE: Similarity-based Hyperdimensional Domain Adaptation for Multi-Sensor Time Series Classification

要約

モノのインターネット (IoT) の実世界のアプリケーションの多くは、機械学習 (ML) アルゴリズムを採用して、相互接続されたセンサーによって収集された時系列情報を分析します。
ただし、データ駆動型 ML の基本的な課題である分布シフトは、モデルがトレーニング データとは異なるデータ分布にデプロイされるときに発生し、モデルのパフォーマンスを大幅に低下させる可能性があります。
さらに、マルチセンサー時系列データの複雑な空間的および時間的依存関係を捕捉するには、ますます洗練されたディープ ニューラル ネットワーク (DNN) が必要ですが、多くの場合、今日のエッジ デバイスの能力を超えています。
この論文では、超次元コンピューティングの効率的かつ並列操作を活用した、マルチセンサー時系列分類のための新しいリソース効率の高いドメイン適応 (DA) アルゴリズムである SMORE を提案します。
SMORE は、各サンプルのドメイン コンテキストを明示的に考慮してテスト時モデルを動的にカスタマイズし、ドメイン シフトの悪影響を軽減します。
さまざまなマルチセンサー時系列分類タスクに関する評価では、SMORE が最先端 (SOTA) DNN ベースの DA アルゴリズムよりも平均 1.98% 高い精度を達成し、18.81 倍の高速トレーニングと 4.63 倍の推論を実現していることがわかりました。

要約(オリジナル)

Many real-world applications of the Internet of Things (IoT) employ machine learning (ML) algorithms to analyze time series information collected by interconnected sensors. However, distribution shift, a fundamental challenge in data-driven ML, arises when a model is deployed on a data distribution different from the training data and can substantially degrade model performance. Additionally, increasingly sophisticated deep neural networks (DNNs) are required to capture intricate spatial and temporal dependencies in multi-sensor time series data, often exceeding the capabilities of today’s edge devices. In this paper, we propose SMORE, a novel resource-efficient domain adaptation (DA) algorithm for multi-sensor time series classification, leveraging the efficient and parallel operations of hyperdimensional computing. SMORE dynamically customizes test-time models with explicit consideration of the domain context of each sample to mitigate the negative impacts of domain shifts. Our evaluation on a variety of multi-sensor time series classification tasks shows that SMORE achieves on average 1.98% higher accuracy than state-of-the-art (SOTA) DNN-based DA algorithms with 18.81x faster training and 4.63x faster inference.

arxiv情報

著者 Junyao Wang,Mohammad Abdullah Al Faruque
発行日 2024-02-20 18:48:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク