要約
自動運転車の計算リソースは限られています。
したがって、それらの制御システムは効率的でなければなりません。
センサーのコストとサイズは、自動運転車の開発を制限してきました。
これらの制限を克服するために、この研究では、ビジョンベースの自動車両の操作のための効率的なフレームワークを提案しています。
フレームワークに必要なのは、単眼カメラといくつかの安価なレーダーだけです。
提案されたアルゴリズムは、画像の特徴を抽出するためのマルチタスク UNet (MTUNet) ネットワークと、迅速な動作計画と制御のための制約付き反復線形二次レギュレーター (CILQR) および視覚予測制御 (VPC) モジュールで構成されます。
MTUNet は、228 x 228 ピクセルの RGB 入力画像に対して、車線分割、自車両の進行方向の角度回帰、道路タイプの分類、および交通物体検出タスクを約 40 FPS (フレーム/秒) で同時に解決するように設計されています。
次に、CILQR コントローラーは、MTUNet 出力とレーダー データを入力として使用して、横方向および縦方向の車両誘導のための運転コマンドをわずか 1 ミリ秒以内に生成します。
特に、VPC アルゴリズムが含まれており、ステアリング コマンドのレイテンシをアクチュエータのレイテンシ未満に短縮して、急カーブ時の車両のアンダーステアを防ぎます。
VPC アルゴリズムは、MTUNet からの道路曲率データを使用して、注視点での現在の操舵角の補正を推定し、旋回量を調整します。
VPC-CILQR コントローラに VPC アルゴリズムを含めると、CILQR 単独よりも高いパフォーマンスが得られます。
このコントローラーは、曲率が 0.03 1/m のシミュレートされた道路で自車の速度と横オフセットをそれぞれ 76 km/h と 0.52 m 以内に維持して、コマンド ラグの影響を最小限に抑えることができます。
私たちの実験は、高精細地図を必要としない提案された自動運転システムが、現在の自動運転車に適用できることを示しています。
要約(オリジナル)
Autonomous vehicles have limited computational resources; hence, their control systems must be efficient. The cost and size of sensors have limited the development of self-driving cars. To overcome these restrictions, this study proposes an efficient framework for the operation of vision-based automatic vehicles; the framework requires only a monocular camera and a few inexpensive radars. The proposed algorithm comprises a multi-task UNet (MTUNet) network for extracting image features and constrained iterative linear quadratic regulator (CILQR) and vision predictive control (VPC) modules for rapid motion planning and control. MTUNet is designed to simultaneously solve lane line segmentation, the ego vehicle’s heading angle regression, road type classification, and traffic object detection tasks at approximately 40 FPS (frames per second) for 228 x 228 pixel RGB input images. The CILQR controllers then use the MTUNet outputs and radar data as inputs to produce driving commands for lateral and longitudinal vehicle guidance within only 1 ms. In particular, the VPC algorithm is included to reduce steering command latency to below actuator latency to prevent vehicle understeer during tight turns. The VPC algorithm uses road curvature data from MTUNet to estimate the correction of the current steering angle at a look-ahead point to adjust the turning amount. Including the VPC algorithm in a VPC-CILQR controller leads to higher performance than CILQR alone; this controller can minimize the influence of command lag, maintaining the ego car’s speed and lateral offset at 76 km/h and within 0.52 m, respectively, on a simulated road with a curvature of 0.03 1/m. Our experiments demonstrate that the proposed autonomous driving system, which does not require high-definition maps, could be applied in current autonomous vehicles.
arxiv情報
著者 | Der-Hau Lee |
発行日 | 2023-02-27 08:04:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google