要約
この論文は、人間が運転する車両と自動運転車両の両方のテールライトを識別することで、夜間の運転行動を予測する能力を強化することを目的としています。
提案されたモデルには、道路上の前車のテールライトを正確に検出するように設計されたカスタマイズされた検出器が組み込まれています。
検出器の最初に、入力画像から深い特徴を抽出し、各特徴のデータ希少性を計算する学習可能な前処理ブロックが実装されます。
次のステップでは、ソフト アテンションからインスピレーションを得て、あらかじめ決められた領域により重点を置くようにモデルを誘導する加重バイナリ マスクが設計されます。
この研究では、畳み込みニューラル ネットワーク (CNN) を利用してこれらの領域から特徴的な特性を抽出し、主成分分析 (PCA) を使用して次元を削減します。
最後に、サポート ベクター マシン (SVM) を使用して車両の動作を予測します。
モデルをトレーニングして評価するために、フォード モーター カンパニーの車両の後方から撮影された 2 種類のドライブレコーダーと Insta360 カメラから大規模なデータセットが収集されます。
このデータセットには、日中と夜間の両方でキャプチャされた 12,000 を超えるフレームが含まれています。
限られた夜間データに対処するために、独自のピクセル単位の画像処理技術が実装され、昼間の画像をリアルな夜間画像に変換します。
実験の結果は、提案された方法論が、精度 92.14%、特異度 97.38%、感度 92.09%、F1 測定値 92.10%、およびコーエンのカッパ統計量 0.895 で車両の挙動を正確に分類できることを示しています。
詳細については、https://github.com/DeepCar/Taillight_Recognition を参照してください。
要約(オリジナル)
This paper aims to enhance the ability to predict nighttime driving behavior by identifying taillights of both human-driven and autonomous vehicles. The proposed model incorporates a customized detector designed to accurately detect front-vehicle taillights on the road. At the beginning of the detector, a learnable pre-processing block is implemented, which extracts deep features from input images and calculates the data rarity for each feature. In the next step, drawing inspiration from soft attention, a weighted binary mask is designed that guides the model to focus more on predetermined regions. This research utilizes Convolutional Neural Networks (CNNs) to extract distinguishing characteristics from these areas, then reduces dimensions using Principal Component Analysis (PCA). Finally, the Support Vector Machine (SVM) is used to predict the behavior of the vehicles. To train and evaluate the model, a large-scale dataset is collected from two types of dash-cams and Insta360 cameras from the rear view of Ford Motor Company vehicles. This dataset includes over 12k frames captured during both daytime and nighttime hours. To address the limited nighttime data, a unique pixel-wise image processing technique is implemented to convert daytime images into realistic night images. The findings from the experiments demonstrate that the proposed methodology can accurately categorize vehicle behavior with 92.14% accuracy, 97.38% specificity, 92.09% sensitivity, 92.10% F1-measure, and 0.895 Cohen’s Kappa Statistic. Further details are available at https://github.com/DeepCar/Taillight_Recognition.
arxiv情報
著者 | Amir Hossein Barshooi,Elmira Bagheri |
発行日 | 2023-10-25 15:23:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google