要約
チャネル状態情報 (CSI) によって実現される WiFi ベースのスマート ヒューマン センシング技術は、近年大きな注目を集めています。
ただし、CSI ベースのセンシング システムは、さまざまな環境に展開するとパフォーマンスが低下します。
既存の研究では、新しい環境から大量のラベルのない高品質データを使用してドメインを適応させることで、この問題を解決していますが、これは通常実際には利用できません。
この論文では、新しい観点から環境依存の問題に対処する、AirFi という名前の新しい強化された環境不変の堅牢な WiFi ジェスチャ認識システムを提案します。
AirFi は、さまざまな環境に関係なく CSI の重要な部分を学習し、モデルを目に見えないシナリオに一般化する新しいドメイン一般化フレームワークであり、新しい環境への適応のためにデータを収集する必要はありません。
AirFi は、いくつかのトレーニング環境設定から共通の特徴を抽出し、それらの間の分布の違いを最小限に抑えます。
この機能は、環境に対してより堅牢になるようにさらに強化されています。
さらに、このシステムは、少数ショット学習手法によってさらに改善できます。
最先端の方法と比較して、AirFi は、新しい環境から CSI データを取得することなく、さまざまな環境設定で動作することができます。
実験結果は、システムが新しい環境で堅牢なままであり、比較されたシステムよりも優れていることを示しています。
要約(オリジナル)
WiFi-based smart human sensing technology enabled by Channel State Information (CSI) has received great attention in recent years. However, CSI-based sensing systems suffer from performance degradation when deployed in different environments. Existing works solve this problem by domain adaptation using massive unlabeled high-quality data from the new environment, which is usually unavailable in practice. In this paper, we propose a novel augmented environment-invariant robust WiFi gesture recognition system named AirFi that deals with the issue of environment dependency from a new perspective. The AirFi is a novel domain generalization framework that learns the critical part of CSI regardless of different environments and generalizes the model to unseen scenarios, which does not require collecting any data for adaptation to the new environment. AirFi extracts the common features from several training environment settings and minimizes the distribution differences among them. The feature is further augmented to be more robust to environments. Moreover, the system can be further improved by few-shot learning techniques. Compared to state-of-the-art methods, AirFi is able to work in different environment settings without acquiring any CSI data from the new environment. The experimental results demonstrate that our system remains robust in the new environment and outperforms the compared systems.
arxiv情報
著者 | Dazhuo Wang,Jianfei Yang,Wei Cui,Lihua Xie,Sumei Sun |
発行日 | 2022-09-21 11:54:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google