要約
このプロジェクトでは、通常のカメラからのビデオ フレームの視覚的特徴と雲点スキャナーからの深度情報を組み合わせて取り込み、運転方針 (車速とステアリング角度) を予測するエンドツーエンドのシステムを実装しました。
私たちは、予測結果を実際の経験豊富なドライバーによる標準的な行動と比較することで、システムの安全性を検証しました。
私たちのテスト結果は、テスト ケースの少なくとも半分 (モデルに応じて 50% 80%) で予測が正確であるとみなせること、および機能を組み合わせて使用すると、ほとんどの場合、ビデオ フレームのみを使用するよりもパフォーマンスが向上したことを示しています。
要約(オリジナル)
In this project, we implemented an end-to-end system that takes in combined visual features of video frames from a normal camera and depth information from a cloud points scanner, and predicts driving policies (vehicle speed and steering angle). We verified the safety of our system by comparing the predicted results with standard behaviors by real-world experienced drivers. Our test results show that the predictions can be considered as accurate in at lease half of the testing cases (50% 80%, depending on the model), and using combined features improved the performance in most cases than using video frames only.
arxiv情報
著者 | Fuxiao Liu |
発行日 | 2023-07-20 17:38:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google