要約
仮想テストは、自律走行における安全性を確保するための重要なタスクであり、センサーシミュレーションはこの領域における重要なタスクです。現在のLiDARシミュレーションのほとんどは、非常に単純化されており、主に初期テストの実行に使用され、大半のインサイトは路上で収集されます。本論文では、より現実的なLiDARシミュレーションのために、テストドライブデータから実センサの動作を学習し、これを仮想領域に変換する軽量なアプローチを提案します。その中心的なアイデアは、シミュレーションを画像間の変換問題に投げかけることである。我々はpix2pixに基づくアーキテクチャを2つの実世界のデータセット、すなわち、人気のあるKITTIデータセットとAudi Autonomous Driving Dataset(RGBとLiDAR画像の両方を提供)を用いて学習させます。我々は、このネットワークを合成レンダリングに適用し、実画像からシミュレーション画像へ十分に汎化できることを示す。この戦略により、我々の合成世界では、センサー固有の高価で複雑なLiDAR物理シミュレーションを省略することができ、クリーンな合成環境を通じて過度の単純化と大きなドメインギャップを回避することができる。
要約(オリジナル)
Virtual testing is a crucial task to ensure safety in autonomous driving, and sensor simulation is an important task in this domain. Most current LiDAR simulations are very simplistic and are mainly used to perform initial tests, while the majority of insights are gathered on the road. In this paper, we propose a lightweight approach for more realistic LiDAR simulation that learns a real sensor’s behavior from test drive data and transforms this to the virtual domain. The central idea is to cast the simulation into an image-to-image translation problem. We train our pix2pix based architecture on two real world data sets, namely the popular KITTI data set and the Audi Autonomous Driving Dataset which provide both, RGB and LiDAR images. We apply this network on synthetic renderings and show that it generalizes sufficiently from real images to simulated images. This strategy enables to skip the sensor-specific, expensive and complex LiDAR physics simulation in our synthetic world and avoids oversimplification and a large domain-gap through the clean synthetic environment.
arxiv情報
| 著者 | Richard Marcus,Niklas Knoop,Bernhard Egger,Marc Stamminger |
| 発行日 | 2022-08-05 12:45:53+00:00 |
| arxivサイト | arxiv_id(pdf) |