要約
インテリジェント車両やロボットがインタラクティブに環境を理解するには、具体化された知覚が不可欠です。
ただし、これらの進歩は主に視覚に焦点を当てており、3D モデリング センサーの使用には限定的な注意が払われており、定性的および定量的なクエリを含むプロンプトに応答してオブジェクトを包括的に理解することが制限されています。
最近、4D ミリ波レーダーは、手頃なコストで有望な自動車用センサーとして、従来のレーダーよりも高密度の点群を提供し、物体の意味的特性と物理的特性の両方を認識することで、認識システムの信頼性を高めています。
3D 視覚的グラウンディングのためのレーダー シーンにおける自然言語主導のコンテキスト理解の開発を促進するために、3D 参照表現理解 (REC) のためのこれら 2 つのモダリティを橋渡しする最初のデータセット、Talk2Radar を構築します。
Talk2Radar には、20,558 個の参照オブジェクトを含む 8,682 個の参照プロンプト サンプルが含まれています。
さらに、点群上の 3D REC 用の新しいモデル T-RadarNet を提案し、Talk2Radar データセット上で同等のデータセットと比較して最先端 (SOTA) パフォーマンスを達成します。
Deformable-FPN と Gated Graph Fusion は、それぞれ効率的な点群フィーチャ モデリングとレーダーとテキスト フィーチャ間のクロスモーダル フュージョンのために細心の注意を払って設計されています。
包括的な実験により、レーダーベースの 3D REC についての深い洞察が得られます。
プロジェクトは https://github.com/GuanRunwei/Talk2Radar でリリースされます。
要約(オリジナル)
Embodied perception is essential for intelligent vehicles and robots in interactive environmental understanding. However, these advancements primarily focus on vision, with limited attention given to using 3D modeling sensors, restricting a comprehensive understanding of objects in response to prompts containing qualitative and quantitative queries. Recently, as a promising automotive sensor with affordable cost, 4D millimeter-wave radars provide denser point clouds than conventional radars and perceive both semantic and physical characteristics of objects, thereby enhancing the reliability of perception systems. To foster the development of natural language-driven context understanding in radar scenes for 3D visual grounding, we construct the first dataset, Talk2Radar, which bridges these two modalities for 3D Referring Expression Comprehension (REC). Talk2Radar contains 8,682 referring prompt samples with 20,558 referred objects. Moreover, we propose a novel model, T-RadarNet, for 3D REC on point clouds, achieving State-Of-The-Art (SOTA) performance on the Talk2Radar dataset compared to counterparts. Deformable-FPN and Gated Graph Fusion are meticulously designed for efficient point cloud feature modeling and cross-modal fusion between radar and text features, respectively. Comprehensive experiments provide deep insights into radar-based 3D REC. We release our project at https://github.com/GuanRunwei/Talk2Radar.
arxiv情報
著者 | Runwei Guan,Ruixiao Zhang,Ningwei Ouyang,Jianan Liu,Ka Lok Man,Xiaohao Cai,Ming Xu,Jeremy Smith,Eng Gee Lim,Yutao Yue,Hui Xiong |
発行日 | 2024-07-19 00:23:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google