要約
周囲の車両の車線変更の意図を予測することは、自動運転システムで効率的かつ安全な運転の意思決定を行うために不可欠です。
これまでの研究では、車線変更の分類に走行速度や加速度などの物理変数を採用することがよくありました。
ただし、物理変数にはセマンティック情報は含まれません。
3D CNN は急速に発展していますが、車線変更の認識に行動認識モデルと外観特徴を利用する方法の数は少なく、いずれもデータの前処理に追加情報を必要とします。
この作業では、カメラによって収集されたビデオ データを使用して、車線変更認識のための 2 つのアクション認識方法を含むエンド ツー エンドのフレームワークを提案します。
私たちの方法は、PREVENTION データセットの RGB ビデオ データのみを使用して、最良の車線変更分類結果を達成します。
クラス活性化マップは、行動認識モデルが車線変更の動きを効率的に抽出できることを示しています。
動きの手がかりをよりよく抽出する方法も、この論文で提案されています。
要約(オリジナル)
Anticipating lane change intentions of surrounding vehicles is crucial for efficient and safe driving decision making in an autonomous driving system. Previous works often adopt physical variables such as driving speed, acceleration and so forth for lane change classification. However, physical variables do not contain semantic information. Although 3D CNNs have been developing rapidly, the number of methods utilising action recognition models and appearance feature for lane change recognition is low, and they all require additional information to pre-process data. In this work, we propose an end-to-end framework including two action recognition methods for lane change recognition, using video data collected by cameras. Our method achieves the best lane change classification results using only the RGB video data of the PREVENTION dataset. Class activation maps demonstrate that action recognition models can efficiently extract lane change motions. A method to better extract motion clues is also proposed in this paper.
arxiv情報
著者 | Kai Liang,Jun Wang,Abhir Bhalerao |
発行日 | 2022-08-24 16:40:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google