3D Object Visibility Prediction in Autonomous Driving

要約

ハードウェアおよびソフトウェア技術の急速な進歩に伴い、自動運転の研究は大幅な成長を遂げています。
マルチセンサー自動運転の一般的なフレームワークには、センサーの設置、認識、経路計画、意思決定、動作制御が含まれます。
認識段階では、一般的なアプローチでは、ニューラル ネットワークを利用して、生のセンサー データから分類、サイズ、方向などの 3D バウンディング ボックス (Bbox) 属性を推測します。
この論文では、新しい属性とそれに対応するアルゴリズム、つまり 3D オブジェクトの可視性を紹介します。
マルチタスク学習を組み込むことにより、この属性である可視性の導入は、モデルの有効性と効率にほとんど影響を与えません。
この属性とその計算戦略に関する私たちの提案は、下流タスクの機能を拡張し、それによって現実世界のシナリオにおけるリアルタイム自動運転の安全性と信頼性を強化することを目的としています。

要約(オリジナル)

With the rapid advancement of hardware and software technologies, research in autonomous driving has seen significant growth. The prevailing framework for multi-sensor autonomous driving encompasses sensor installation, perception, path planning, decision-making, and motion control. At the perception phase, a common approach involves utilizing neural networks to infer 3D bounding box (Bbox) attributes from raw sensor data, including classification, size, and orientation. In this paper, we present a novel attribute and its corresponding algorithm: 3D object visibility. By incorporating multi-task learning, the introduction of this attribute, visibility, negligibly affects the model’s effectiveness and efficiency. Our proposal of this attribute and its computational strategy aims to expand the capabilities for downstream tasks, thereby enhancing the safety and reliability of real-time autonomous driving in real-world scenarios.

arxiv情報

著者 Chuanyu Luo,Nuo Cheng,Ren Zhong,Haipeng Jiang,Wenyu Chen,Aoli Wang,Pu Li
発行日 2024-03-06 13:07:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク