要約
触覚と人間と機械の相互作用を備えたインダストリー4.0アプリケーションをサポートするには、第6世代(6G)には、完全に自律的、視覚的、インタラクティブな新しいフレームワークが必要です。
本稿では、プライベートネットワークプランニングサービスの新しいフレームワークを提案し、ユーザーデバイスから視覚的および感覚的データを受信し、3Dネットワーク環境を再構築し、サーバー上でネットワークプランニングを実行し、視覚化するエンドツーエンドソリューションを提供します。
ユーザーデバイスのディスプレイに拡張現実(AR)を使用したネットワークパフォーマンス。
このソリューションは、3つの主要な技術コンポーネントによって強化されています。1)ビジョンとセンサーの融合ベースの3D環境の再構築、2)レイトレーシングベースの無線マップの生成とネットワーク計画、3)リアルタイムカメラによるARによるネットワークの視覚化
再ローカリゼーション。
ドイツのボッシュ工場で概念実証を実施し、最適化されたアンテナ位置の良好なネットワークカバレッジと、環境の再構築とカメラの再配置の両方で高い精度を示しました。
また、フレームあたり約32ミリ秒のエンドツーエンドの遅延で、ARがサポートするリアルタイムのネットワーク監視を実現しました。
要約(オリジナル)
To support Industry 4.0 applications with haptics and human-machine interaction, the sixth generation (6G) requires a new framework that is fully autonomous, visual, and interactive. In this paper, we propose a novel framework for private network planning services, providing an end-to-end solution that receives visual and sensory data from the user device, reconstructs the 3D network environment and performs network planning on the server, and visualizes the network performance with augmented reality (AR) on the display of the user devices. The solution is empowered by three key technical components: 1) vision- and sensor fusion-based 3D environment reconstruction, 2) ray tracing-based radio map generation and network planning, and 3) AR-empowered network visualization enabled by real-time camera relocalization. We conducted the proof-of-concept in a Bosch plant in Germany and showed good network coverage of the optimized antenna location, as well as high accuracy in both environment reconstruction and camera relocalization. We also achieved real-time AR-supported network monitoring with an end-to-end latency of about 32 ms per frame.
arxiv情報
著者 | Qi Liao,Tianlun Hu,Nikolaj Marchenko |
発行日 | 2022-06-24 08:02:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google