Talk2Radar: Bridging Natural Language with 4D mmWave Radar for 3D Referring Expression Comprehension

要約

身体的知覚はインテリジェント車両やロボットにとって不可欠であり、より自然な対話とタスクの実行を可能にします。
ただし、これらの進歩は現在、視覚レベルを取り入れており、3D モデリング センサーの使用に焦点を当てていることはほとんどないため、複数の粒度の特性を持つ周囲のオブジェクトの完全な理解が制限されています。
最近、4D ミリ波レーダーは、手頃なコストで有望な車載センサーとして、従来のレーダーよりも高密度の点群を提供し、物体の意味的特性と物理的特性の両方を認識するため、認識システムの信頼性が向上しています。
3D 接地のためのレーダー シーンにおける自然言語主導のコンテキスト理解の開発を促進するために、3D 参照表現理解のためのこれら 2 つのモダリティを橋渡しする最初のデータセット、Talk2Radar を構築します。
Talk2Radar には、20,558 個の参照オブジェクトを含む 8,682 個の参照プロンプト サンプルが含まれています。
さらに、点群上の 3D REC 用の新しいモデルである T-RadarNet を提案し、他のモデルと比較して Talk2Radar データセットで最先端のパフォーマンスを実現します。Deformable-FPN と Gated Graph Fusion は効率的な点群機能のために細心の注意を払って設計されています。
それぞれ、レーダー機能とテキスト機能の間のモデリングとクロスモーダル融合です。
さらに、レーダーベースの 3D REC についての深い洞察を得るために、包括的な実験が行われています。
プロジェクトは https://github.com/GuanRunwei/Talk2Radar でリリースされます。

要約(オリジナル)

Embodied perception is essential for intelligent vehicles and robots, enabling more natural interaction and task execution. However, these advancements currently embrace vision level, rarely focusing on using 3D modeling sensors, which limits the full understanding of surrounding objects with multi-granular characteristics. Recently, as a promising automotive sensor with affordable cost, 4D Millimeter-Wave radar provides denser point clouds than conventional radar and perceives both semantic and physical characteristics of objects, thus enhancing the reliability of perception system. To foster the development of natural language-driven context understanding in radar scenes for 3D grounding, we construct the first dataset, Talk2Radar, which bridges these two modalities for 3D Referring Expression Comprehension. Talk2Radar contains 8,682 referring prompt samples with 20,558 referred objects. Moreover, we propose a novel model, T-RadarNet for 3D REC upon point clouds, achieving state-of-the-art performances on Talk2Radar dataset compared with counterparts, where Deformable-FPN and Gated Graph Fusion are meticulously designed for efficient point cloud feature modeling and cross-modal fusion between radar and text features, respectively. Further, comprehensive experiments are conducted to give a deep insight into radar-based 3D REC. We release our project at https://github.com/GuanRunwei/Talk2Radar.

arxiv情報

著者 Runwei Guan,Ruixiao Zhang,Ningwei Ouyang,Jianan Liu,Ka Lok Man,Xiaohao Cai,Ming Xu,Jeremy Smith,Eng Gee Lim,Yutao Yue,Hui Xiong
発行日 2024-05-21 14:26:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク