SPAR: Self-supervised Placement-Aware Representation Learning for Multi-Node IoT Systems

要約

この作業は、空間的に分散した(マルチビューおよびマルチモーダル)センサーの観測を考慮して、自己科学の配置を意識した表現学習の基盤を開発します。
IoTシステムでの検知の目的は、一般に、感覚観測が発生する複数の有利な点を考慮して、外部から観察された環境を集合的に表すことです。
したがって、センサーデータを解釈するのに役立つモデルの事前削除は、センサーによって観察された信号とオブザーバーの有利な点との関係をエンコードして、測定機器の特定の配置によって通知された方法で観測された空間現象をコードする表現を獲得しながら、任意の配置を可能にすることによって指標を達成する必要があります。
この作業は、IoTデータの特徴的な空間性を見落とす現在のソリューションを超えて、IoTシグナルから事前に事前に取引される自己監視モデルを前進させます。
私たちのフレームワークは、測定と幾何学的オブザーバーのレイアウトと構造的特性の間の依存関係を明示的に学習します。これは、コア設計の原則、つまり信号とオブザーバーの位置の二重性に導かれます。
さらに、情報理論とオクルージョン不変の表現の観点から理論的分析を、デザインの背後にある理論的根拠への洞察を提供する学習を提供します。
覆われた車両の監視、人間の活動認識、地震のローカリゼーションの3つの実際のデータセットでの実験は、多様なモダリティ、センサーの配置、アプリケーションレベルの推論タスク、および空間スケールにわたるメソッドの優れた一般化可能性と堅牢性を実証します。

要約(オリジナル)

This work develops the underpinnings of self-supervised placement-aware representation learning given spatially-distributed (multi-view and multimodal) sensor observations, motivated by the need to represent external environmental state in multi-sensor IoT systems in a manner that correctly distills spatial phenomena from the distributed multi-vantage observations. The objective of sensing in IoT systems is, in general, to collectively represent an externally observed environment given multiple vantage points from which sensory observations occur. Pretraining of models that help interpret sensor data must therefore encode the relation between signals observed by sensors and the observers’ vantage points in order to attain a representation that encodes the observed spatial phenomena in a manner informed by the specific placement of the measuring instruments, while allowing arbitrary placement. The work significantly advances self-supervised model pretraining from IoT signals beyond current solutions that often overlook the distinctive spatial nature of IoT data. Our framework explicitly learns the dependencies between measurements and geometric observer layouts and structural characteristics, guided by a core design principle: the duality between signals and observer positions. We further provide theoretical analyses from the perspectives of information theory and occlusion-invariant representation learning to offer insight into the rationale behind our design. Experiments on three real-world datasets–covering vehicle monitoring, human activity recognition, and earthquake localization–demonstrate the superior generalizability and robustness of our method across diverse modalities, sensor placements, application-level inference tasks, and spatial scales.

arxiv情報

著者 Yizhuo Chen,Tianchen Wang,You Lyu,Yanlan Hu,Jinyang Li,Tomoyoshi Kimura,Hongjue Zhao,Yigong Hu,Denizhan Kara,Tarek Abdelzaher
発行日 2025-05-22 17:26:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク