要約
産業システムのリモート無線制御は、5G 以降のシステムの主要な使用例の 1 つです。このような場合、無線媒体を介して共有する必要がある大量の感覚情報により、大容量の接続でも過負荷になる可能性があります。
したがって、無関係な情報を破棄する送信戦略を最適化することで効果的な通信問題を解決すると、大きな利点が得られますが、多くの場合、非常に複雑な作業になります。
この研究では、観察者がタスクを制御するロボット (工場内の移動ロボットなど) に感覚データを伝達する必要があるプロトタイプのシステムを検討します。
次に、システム全体のパフォーマンスに対するセマンティックで効果的な通信指向ソリューションの導入の影響を考慮して、これをリモートの部分的に観察可能なマルコフ決定プロセス (POMDP) としてモデル化します。
アンサンブル ベクトル量子化変分オートエンコーダ (VQ-VAE) エンコーディングを考慮して通信問題を分割し、環境の現在の状態と過去の記憶の両方を考慮して、量子化レベルを動的に適応させる深層強化学習 (DRL) エージェントをトレーニングします。
メッセージ。
私たちは、よく知られている CartPole 参照制御問題に対して提案されたアプローチをテストし、従来のアプローチに比べて大幅なパフォーマンスの向上を得ました。
要約(オリジナル)
The remote wireless control of industrial systems is one of the major use cases for 5G and beyond systems: in these cases, the massive amounts of sensory information that need to be shared over the wireless medium may overload even high-capacity connections. Consequently, solving the effective communication problem by optimizing the transmission strategy to discard irrelevant information can provide a significant advantage, but is often a very complex task. In this work, we consider a prototypal system in which an observer must communicate its sensory data to a robot controlling a task (e.g., a mobile robot in a factory). We then model it as a remote Partially Observable Markov Decision Process (POMDP), considering the effect of adopting semantic and effective communication-oriented solutions on the overall system performance. We split the communication problem by considering an ensemble Vector Quantized Variational Autoencoder (VQ-VAE) encoding, and train a Deep Reinforcement Learning (DRL) agent to dynamically adapt the quantization level, considering both the current state of the environment and the memory of past messages. We tested the proposed approach on the well-known CartPole reference control problem, obtaining a significant performance increase over traditional approaches.
arxiv情報
著者 | Pietro Talli,Francesco Pase,Federico Chiariotti,Andrea Zanella,Michele Zorzi |
発行日 | 2024-01-29 15:35:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google