Toward Extremely Lightweight Distracted Driver Recognition With Distillation-Based Neural Architecture Search and Knowledge Transfer

要約

近年、世界的に交通事故が増加の一途をたどっています。
多くの事故は、注意散漫なドライバーが運転から注意をそらすことによって引き起こされます。
コンピューター ビジョンにおける畳み込みニューラル ネットワーク (CNN) の成功に動機付けられて、多くの研究者が CNN ベースのアルゴリズムを開発し、車載カメラからの注意散漫な運転を認識し、安全でない行動に対してドライバーに警告しました。
しかし、現在のモデルはパラメーターが多すぎて、車載コンピューティングには対応できません。
この作品は、この問題を解決するための新しい知識抽出ベースのフレームワークを提案します。
提案されたフレームワークは、最初に、CNN の浅い層から深い層への照明の変化に対するロバスト性を徐々に強化することにより、高性能の教師ネットワークを構築します。
次に、教師ネットワークを使用して、知識の蒸留を通じて学生ネットワークのアーキテクチャ検索プロセスをガイドします。
その後、再び教師ネットワークを使用して、知識の蒸留によって知識を生徒ネットワークに転送します。
Statefarm Distracted Driver Detection Dataset と AUC Distracted Driver Dataset に関する実験結果は、提案されたアプローチが写真から注意散漫な運転行動を認識するのに非常に効果的であることを示しています。
(2) 学生ネットワークは、わずか 0.42M のパラメーター (以前の最も軽量なモデルの約 55%) で非常に高い精度を達成します。
さらに、ビデオ クリップから注意散漫な運転を認識するために、学生ネットワーク アーキテクチャを時空間 3D CNN に拡張できます。
3D 学生ネットワークは、Drive&Act データセットのわずか 203 万個のパラメーターで、以前の最高精度を大幅に上回っています。
ソース コードは、https://github.com/Dichao-Liu/Lightweight_Distracted_Driver_Recognition_with_Distillation-Based_NAS_and_Knowledge_Transfer で入手できます。

要約(オリジナル)

The number of traffic accidents has been continuously increasing in recent years worldwide. Many accidents are caused by distracted drivers, who take their attention away from driving. Motivated by the success of Convolutional Neural Networks (CNNs) in computer vision, many researchers developed CNN-based algorithms to recognize distracted driving from a dashcam and warn the driver against unsafe behaviors. However, current models have too many parameters, which is unfeasible for vehicle-mounted computing. This work proposes a novel knowledge-distillation-based framework to solve this problem. The proposed framework first constructs a high-performance teacher network by progressively strengthening the robustness to illumination changes from shallow to deep layers of a CNN. Then, the teacher network is used to guide the architecture searching process of a student network through knowledge distillation. After that, we use the teacher network again to transfer knowledge to the student network by knowledge distillation. Experimental results on the Statefarm Distracted Driver Detection Dataset and AUC Distracted Driver Dataset show that the proposed approach is highly effective for recognizing distracted driving behaviors from photos: (1) the teacher network’s accuracy surpasses the previous best accuracy; (2) the student network achieves very high accuracy with only 0.42M parameters (around 55% of the previous most lightweight model). Furthermore, the student network architecture can be extended to a spatial-temporal 3D CNN for recognizing distracted driving from video clips. The 3D student network largely surpasses the previous best accuracy with only 2.03M parameters on the Drive&Act Dataset. The source code is available at https://github.com/Dichao-Liu/Lightweight_Distracted_Driver_Recognition_with_Distillation-Based_NAS_and_Knowledge_Transfer.

arxiv情報

著者 Dichao Liu,Toshihiko Yamasaki,Yu Wang,Kenji Mase,Jien Kato
発行日 2023-02-09 09:39:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク