Policy Pre-training for End-to-end Autonomous Driving via Self-supervised Geometric Modeling

要約

コンピュータビジョンや自然言語処理の分野では、大規模データに対する事前学習技術が目覚ましい成果を上げているが、このアイデアをグラブアンドゴーの精神で適応し、視覚運動運転のサンプル非効率問題を軽減できないかと考えている。視覚運動による運転は、入力が非常に動的で多様であるため、視界や翻訳に対する不変性がなく、また、視覚入力には意思決定に無関係な情報が大量に含まれており、一般的な視覚からの事前学習アプローチは自律走行タスクに適していない。そこで、我々は、視覚運動運転における政策事前学習のために、直感的でわかりやすい完全自己教師付きフレームワークであるPPGeo (Policy Pre-training via Geometric modeling)を提案する。我々は、大規模なラベル付けされていない、キャリブレーションされていないYouTubeの運転動画上の3D幾何学的シーンをモデル化することにより、強力な抽象化として政策表現を学習することを目的としている。提案するPPGeoは、効果的な自己教師あり学習を支援するために、2つのステージで実行される。第一段階では、幾何学的モデリングフレームワークが、連続する2つのフレームを入力として、姿勢と奥行き予測を同時に生成する。第2段階では、視覚エンコーダが、将来の自我運動を予測し、現在の視覚観察のみに基づく測光誤差で最適化することにより、運転方針表現を学習する。このように、事前に学習された視覚エンコーダは、運転方針に関連する豊富な表現を備えているため、複数の視覚運動運転タスクに対して能力を発揮することができます。幅広いチャレンジングなシナリオを対象とした広範な実験により、非常に限られたデータで2%から100%を超える改善率を達成し、提案手法の優位性を実証しています。コードとモデルは https://github.com/OpenDriveLab/PPGeo で公開される予定です。

要約(オリジナル)

Witnessing the impressive achievements of pre-training techniques on large-scale data in the field of computer vision and natural language processing, we wonder whether this idea could be adapted in a grab-and-go spirit, and mitigate the sample inefficiency problem for visuomotor driving. Given the highly dynamic and variant nature of the input, the visuomotor driving task inherently lacks view and translation invariance, and the visual input contains massive irrelevant information for decision making, resulting in predominant pre-training approaches from general vision less suitable for the autonomous driving task. To this end, we propose PPGeo (Policy Pre-training via Geometric modeling), an intuitive and straightforward fully self-supervised framework curated for the policy pretraining in visuomotor driving. We aim at learning policy representations as a powerful abstraction by modeling 3D geometric scenes on large-scale unlabeled and uncalibrated YouTube driving videos. The proposed PPGeo is performed in two stages to support effective self-supervised training. In the first stage, the geometric modeling framework generates pose and depth predictions simultaneously, with two consecutive frames as input. In the second stage, the visual encoder learns driving policy representation by predicting the future ego-motion and optimizing with the photometric error based on current visual observation only. As such, the pre-trained visual encoder is equipped with rich driving policy related representations and thereby competent for multiple visuomotor driving tasks. Extensive experiments covering a wide span of challenging scenarios have demonstrated the superiority of our proposed approach, where improvements range from 2% to even over 100% with very limited data. Code and models will be available at https://github.com/OpenDriveLab/PPGeo.

arxiv情報

著者 Penghao Wu,Li Chen,Hongyang Li,Xiaosong Jia,Junchi Yan,Yu Qiao
発行日 2023-01-03 08:52:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク