要約
コレスポンデンス識別 (CoID) は、コネクテッド自律走行車などのマルチロボット システムでの共同認識に不可欠なコンポーネントです。
CoID の目的は、ロボットが一貫して同じオブジェクトを参照できるようにするために、複数のロボットがそれぞれの視野で観察するオブジェクトの対応関係を特定することです。
CoID は、知覚的エイリアシング、オブジェクトの非可視性、およびノイズの多いセンシングのために困難です。
このホワイト ペーパーでは、CoID を有効にして課題に対処するための新しいディープ マスク グラフ マッチング アプローチを紹介します。
私たちのアプローチは、CoID をグラフ マッチング問題として定式化し、マスクされたニューラル ネットワークを設計して、マルチモーダルな視覚情報、空間情報、および GPS 情報を統合して CoID を実行します。
さらに、オクルージョンと車両の限られた視野によって引き起こされるオブジェクトの非可視性に明示的に対処するための新しい手法を設計します。
CARLA と SUMO シミュレーターを統合した忠実度の高いシミュレーションを使用して、さまざまなストリート環境でのアプローチを評価します。
実験結果は、私たちのアプローチが以前のアプローチよりも優れており、接続された自動運転アプリケーションで最先端の CoID パフォーマンスを達成することを示しています。
私たちの作品は https://github.com/gaopeng5/DMGM.git で入手できます。
要約(オリジナル)
Correspondence identification (CoID) is an essential component for collaborative perception in multi-robot systems, such as connected autonomous vehicles. The goal of CoID is to identify the correspondence of objects observed by multiple robots in their own field of view in order for robots to consistently refer to the same objects. CoID is challenging due to perceptual aliasing, object non-covisibility, and noisy sensing. In this paper, we introduce a novel deep masked graph matching approach to enable CoID and address the challenges. Our approach formulates CoID as a graph matching problem and we design a masked neural network to integrate the multimodal visual, spatial, and GPS information to perform CoID. In addition, we design a new technique to explicitly address object non-covisibility caused by occlusion and the vehicle’s limited field of view. We evaluate our approach in a variety of street environments using a high-fidelity simulation that integrates the CARLA and SUMO simulators. The experimental results show that our approach outperforms the previous approaches and achieves state-of-the-art CoID performance in connected autonomous driving applications. Our work is available at: https://github.com/gaopeng5/DMGM.git.
arxiv情報
著者 | Peng Gao,Qingzhao Zhu,Hongsheng Lu,Chuang Gan,Hao Zhang |
発行日 | 2023-03-14 00:46:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google