Enhanced Visual SLAM for Collision-free Driving with Lightweight Autonomous Cars

要約

この論文では、単一の RGB-D カメラを使用し、CPU のみのデバイスで実行できる軽量自動運転車のための、ビジョンベースの障害物回避戦略を紹介しています。
この方法は、視覚認識と経路計画の 2 つのステップで構成されます。
視覚認識部分では、オプティカル フローで強化された ORBSLAM3 を使用して、車の姿勢を推定し、シーンから豊富なテクスチャ情報を抽出します。
経路計画段階では、制御リアプノフ関数と制御バリア関数を二次計画法(CLF-CBF-QP)で組み合わせた手法と、障害物形状再構成プロセス(SRP)を組み合わせた手法を用いて、安全で安定した軌道を計画します。
提案された方法のパフォーマンスとロバスト性を検証するために、Gazebo シミュレーション環境を使用して、さまざまな複雑な屋内環境で自動車のシミュレーション実験が実行されました。
私たちの方法は、シーン内の障害物を効果的に回避できます。
提案されたアルゴリズムは、複数のシミュレートされたシーンにわたってより安定したより短い軌道を達成する点でベンチマーク アルゴリズムを上回ります。

要約(オリジナル)

The paper presents a vision-based obstacle avoidance strategy for lightweight self-driving cars that can be run on a CPU-only device using a single RGB-D camera. The method consists of two steps: visual perception and path planning. The visual perception part uses ORBSLAM3 enhanced with optical flow to estimate the car’s poses and extract rich texture information from the scene. In the path planning phase, we employ a method combining a control Lyapunov function and control barrier function in the form of quadratic program (CLF-CBF-QP) together with an obstacle shape reconstruction process (SRP) to plan safe and stable trajectories. To validate the performance and robustness of the proposed method, simulation experiments were conducted with a car in various complex indoor environments using the Gazebo simulation environment. Our method can effectively avoid obstacles in the scenes. The proposed algorithm outperforms benchmark algorithms in achieving more stable and shorter trajectories across multiple simulated scenes.

arxiv情報

著者 Zhihao Lin,Zhen Tian,Qi Zhang,Hanyang Zhuang,Jianglin Lan
発行日 2024-08-21 12:45:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク