OccCylindrical: Multi-Modal Fusion with Cylindrical Representation for 3D Semantic Occupancy Prediction

要約

自動運転車(AVS)の安全な操作は、周囲の理解に大きく依存しています。
このため、3Dセマンティック占有率予測のタスクは、センサーの周りのスペースをボクセルに分割し、各ボクセルを占有率とセマンティック情報の両方でラベル付けします。
最近の知覚モデルでは、このタスクを実行するためにマルチセンサー融合を使用しています。
ただし、既存のマルチセンサー融合ベースのアプローチは、主にデカルト座標系でセンサー情報の使用に焦点を当てています。
これは、センサーの測定値の分布を無視し、細かい詳細とパフォーマンスの劣化が失われます。
この論文では、円筒座標の下でさまざまなモダリティ機能をマージおよび改良するOcccylindricalを提案します。
私たちの方法は、より良いパフォーマンスにつながるより微調整されたジオメトリの詳細を保持します。
雨のような雨や夜間のシナリオに挑戦するなど、ヌスセンデータセットで実施された広範な実験は、アプローチの有効性と最先端のパフォーマンスを確認します。
このコードは、https://github.com/danielming123/occcylindricalで入手できます

要約(オリジナル)

The safe operation of autonomous vehicles (AVs) is highly dependent on their understanding of the surroundings. For this, the task of 3D semantic occupancy prediction divides the space around the sensors into voxels, and labels each voxel with both occupancy and semantic information. Recent perception models have used multisensor fusion to perform this task. However, existing multisensor fusion-based approaches focus mainly on using sensor information in the Cartesian coordinate system. This ignores the distribution of the sensor readings, leading to a loss of fine-grained details and performance degradation. In this paper, we propose OccCylindrical that merges and refines the different modality features under cylindrical coordinates. Our method preserves more fine-grained geometry detail that leads to better performance. Extensive experiments conducted on the nuScenes dataset, including challenging rainy and nighttime scenarios, confirm our approach’s effectiveness and state-of-the-art performance. The code will be available at: https://github.com/DanielMing123/OccCylindrical

arxiv情報

著者 Zhenxing Ming,Julie Stephany Berrio,Mao Shan,Yaoqi Huang,Hongyu Lyu,Nguyen Hoang Khoi Tran,Tzu-Yun Tseng,Stewart Worrall
発行日 2025-05-06 08:12:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク