要約
自動運転システムのコアタスクは、感覚入力を運転コマンドに変換することです。
エンドツーエンドの運転では、これはニューラルネットワークを介して実現され、最も一般的に使用される入力および低レベルの運転コマンドとして1つまたは複数のカメラが使用されます。
出力としてのステアリング角度。
ただし、シミュレーションでは、エンドツーエンドの運転タスクを容易にするために深度検知が示されています。
実際の車では、センサーの空間的および時間的な位置合わせを適切に行うことが難しいため、深度情報と視覚情報を組み合わせるのは難しい場合があります。
位置合わせの問題を軽減するために、Ouster LiDARは、深度、強度、および周囲放射チャネルを含むサラウンドビューLiDAR画像を出力できます。
これらの測定値は同じセンサーから発生し、時間と空間で完全に整列します。
このようなLiDAR画像は、実際の車の道路追跡タスクに十分であり、テストされた条件でカメラベースのモデルと少なくとも同等に実行され、新しい気象条件に一般化する必要がある場合は差が大きくなることを示します。
研究の第2の方向では、ポリシー外の予測シーケンスの時間的な滑らかさは、一般的に使用される平均絶対誤差として、実際のポリシー上の運転能力と同等によく相関することを明らかにします。
要約(オリジナル)
The core task of any autonomous driving system is to transform sensory inputs into driving commands. In end-to-end driving, this is achieved via a neural network, with one or multiple cameras as the most commonly used input and low-level driving command, e.g. steering angle, as output. However, depth-sensing has been shown in simulation to make the end-to-end driving task easier. On a real car, combining depth and visual information can be challenging, due to the difficulty of obtaining good spatial and temporal alignment of the sensors. To alleviate alignment problems, Ouster LiDARs can output surround-view LiDAR-images with depth, intensity, and ambient radiation channels. These measurements originate from the same sensor, rendering them perfectly aligned in time and space. We demonstrate that such LiDAR-images are sufficient for the real-car road-following task and perform at least equally to camera-based models in the tested conditions, with the difference increasing when needing to generalize to new weather conditions. In the second direction of study, we reveal that the temporal smoothness of off-policy prediction sequences correlates equally well with actual on-policy driving ability as the commonly used mean absolute error.
arxiv情報
著者 | Ardi Tampuu,Romet Aidla,Jan Are van Gent,Tambet Matiisen |
発行日 | 2022-06-30 10:06:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google