Visual Perception System for Autonomous Driving

要約

最近自動運転への関心が高まっているのは、安全性、効率性、利便性を高める自動運転の能力が急速に発展していることに起因しています。
自動運転技術の極めて重要な側面はその知覚システムであり、コア アルゴリズムにより、視覚ベースの同時位置特定とマッピング (SLAM)、物体検出、追跡アルゴリズムなど、自動運転に適用できるより正確なアルゴリズムが生み出されています。
この研究では、自動運転の位置特定とマッピングの要件に対処しながら、衝突を防止するために移動物体の軌道追跡と予測を統合する、自動運転用の視覚ベースの知覚システムを紹介します。
このシステムは、歩行者からの動きの手がかりを活用して、歩行者の動きを監視および予測し、同時に環境をマッピングします。
この統合されたアプローチにより、カメラの位置特定とシーン内の他の移動オブジェクトの追跡が解決され、その後、車両のナビゲーションを容易にするためのまばらな地図が生成されます。
このアプローチのパフォーマンス、効率、回復力は、シミュレートされたデータセットと現実世界のデータセットの両方の包括的な評価を通じて実証されています。

要約(オリジナル)

The recent surge in interest in autonomous driving stems from its rapidly developing capacity to enhance safety, efficiency, and convenience. A pivotal aspect of autonomous driving technology is its perceptual systems, where core algorithms have yielded more precise algorithms applicable to autonomous driving, including vision-based Simultaneous Localization and Mapping (SLAMs), object detection, and tracking algorithms. This work introduces a visual-based perception system for autonomous driving that integrates trajectory tracking and prediction of moving objects to prevent collisions, while addressing autonomous driving’s localization and mapping requirements. The system leverages motion cues from pedestrians to monitor and forecast their movements and simultaneously maps the environment. This integrated approach resolves camera localization and the tracking of other moving objects in the scene, subsequently generating a sparse map to facilitate vehicle navigation. The performance, efficiency, and resilience of this approach are substantiated through comprehensive evaluations of both simulated and real-world datasets.

arxiv情報

著者 Qi Zhang,Siyuan Gou,Wenbin Li
発行日 2023-10-31 22:50:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク