Verifiable Obstacle Detection

要約

障害物の認識は、自動運転車にとって依然として重要な安全上の懸念事項です。
実世界の衝突は、致命的な衝突につながる自律性の欠陥が障害物の存在検出に起因することを示しています。
オープンソースの自動運転の実装は、相互に依存する複雑なディープ ニューラル ネットワークによる認識パイプラインを示しています。
これらのネットワークは完全に検証可能ではないため、安全性が重要なタスクには適していません。
この作業では、既存の LiDAR ベースの古典的な障害物検出アルゴリズムの安全性検証を提示します。
この障害物検出アルゴリズムの機能に厳密な境界を設定します。
安全基準が与えられている場合、このような境界により、確実に基準を満たす LiDAR センサーのプロパティを決定できます。
このような分析は、ニューラル ネットワーク ベースの知覚システムではまだ実現できていません。
障害物検出システムの厳密な分析を、実際のセンサー データに基づいた経験的結果とともに提供します。

要約(オリジナル)

Perception of obstacles remains a critical safety concern for autonomous vehicles. Real-world collisions have shown that the autonomy faults leading to fatal collisions originate from obstacle existence detection. Open source autonomous driving implementations show a perception pipeline with complex interdependent Deep Neural Networks. These networks are not fully verifiable, making them unsuitable for safety-critical tasks. In this work, we present a safety verification of an existing LiDAR based classical obstacle detection algorithm. We establish strict bounds on the capabilities of this obstacle detection algorithm. Given safety standards, such bounds allow for determining LiDAR sensor properties that would reliably satisfy the standards. Such analysis has as yet been unattainable for neural network based perception systems. We provide a rigorous analysis of the obstacle detection system with empirical results based on real-world sensor data.

arxiv情報

著者 Ayoosh Bansal,Hunmin Kim,Simon Yu,Bo Li,Naira Hovakimyan,Marco Caccamo,Lui Sha
発行日 2022-08-30 17:15:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, cs.SY, eess.SY, I.2.9 パーマリンク