Level 2 Autonomous Driving on a Single Device: Diving into the Devils of Openpilot

要約

幅広いセンサーを搭載した主な自動運転ソリューションは、安全なシステム設計のためにモジュール指向になりつつあります。
これらのセンサーは確固たる基盤を築いていますが、これまでのほとんどの大規模生産ソリューションは依然としてL2フェーズに分類されます。
これらの中で、Comma.aiが私たちの目にとまり、1台のカメラとボードが内部に取り付けられた1台の999ドルのアフターマーケットデバイスがL2シナリオを処理する能力を持っていると主張しています。
Comma.aiによってリリースされたシステム全体のオープンソースソフトウェアとともに、プロジェクトの名前はOpenpilotです。
出来ますか?
もしそうなら、それはどのように可能になりますか?
好奇心を念頭に置いて、Openpilotを深く掘り下げ、成功への鍵は、従来のモジュラーフレームワークではなく、エンドツーエンドのシステム設計であると結論付けました。
モデルはSupercomboとしてブリーフィングされ、単眼入力からエゴビークルの将来の軌道やその他の道路セマンティクスをその場で予測できます。
残念ながら、これらすべての作業を行うためのトレーニングプロセスと大量のデータは公開されていません。
徹底的な調査を行うために、トレーニングの詳細を再実装し、公開ベンチマークでパイプラインをテストしようとしています。
この作業で提案されたリファクタリングされたネットワークは、OP-Deepdiveと呼ばれます。
私たちのバージョンを元のスーパーコンボと公正に比較するために、実世界での運転性能をテストするためのデュアルモデル展開スキームを導入します。
nuScenes、Comma2k19、CARLA、および社内の現実的なシナリオでの実験結果は、低コストのデバイスが実際にほとんどのL2機能を実現し、元のSupercomboモデルと同等であることを確認しています。
このレポートでは、最新の調査結果を共有し、工業製品レベルの側面からのエンドツーエンドの自動運転の新しい視点に光を当て、コミュニティがパフォーマンスを継続的に改善するように刺激する可能性があります。
私たちのコード、ベンチマークはhttps://github.com/OpenPerceptionX/Openpilot-Deepdiveにあります。

要約(オリジナル)

Equipped with a wide span of sensors, predominant autonomous driving solutions are becoming more modular-oriented for safe system design. Though these sensors have laid a solid foundation, most massive-production solutions up to date still fall into L2 phase. Among these, Comma.ai comes to our sight, claiming one $999 aftermarket device mounted with a single camera and board inside owns the ability to handle L2 scenarios. Together with open-sourced software of the entire system released by Comma.ai, the project is named Openpilot. Is it possible? If so, how is it made possible? With curiosity in mind, we deep-dive into Openpilot and conclude that its key to success is the end-to-end system design instead of a conventional modular framework. The model is briefed as Supercombo, and it can predict the ego vehicle’s future trajectory and other road semantics on the fly from monocular input. Unfortunately, the training process and massive amount of data to make all these work are not publicly available. To achieve an intensive investigation, we try to reimplement the training details and test the pipeline on public benchmarks. The refactored network proposed in this work is referred to as OP-Deepdive. For a fair comparison of our version to the original Supercombo, we introduce a dual-model deployment scheme to test the driving performance in the real world. Experimental results on nuScenes, Comma2k19, CARLA, and in-house realistic scenarios verify that a low-cost device can indeed achieve most L2 functionalities and be on par with the original Supercombo model. In this report, we would like to share our latest findings, shed some light on the new perspective of end-to-end autonomous driving from an industrial product-level side, and potentially inspire the community to continue improving the performance. Our code, benchmarks are at https://github.com/OpenPerceptionX/Openpilot-Deepdive.

arxiv情報

著者 Li Chen,Tutian Tang,Zhitian Cai,Yang Li,Penghao Wu,Hongyang Li,Jianping Shi,Junchi Yan,Yu Qiao
発行日 2022-06-16 13:43:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク