Sensing accident-prone features in urban scenes for proactive driving and accident prevention

要約

都市部では、道路上および道路沿いの視覚情報がドライバーの注意をそらし、交通標識やその他の事故を起こしやすい (AP) 機能の見落としにつながる可能性があります。
これらの視覚的な合図を見逃すことによる事故を回避するために、この論文では、ドライブレコーダーで取得したリアルタイムの画像に基づいて、AP 機能をドライバーに視覚的に通知することを提案しています。
この目的のために、実際の事故データセットによって特定された事故ホットスポット (事故が密集しているエリア) 周辺の Google ストリート ビュー画像を使用して、新しい注意モジュールをトレーニングし、特定の都市シーンを事故ホットスポットまたは非ホットスポット (エリア) に分類します。
まれな事故発生の)。
提案されたモジュールは、さまざまな CNN バックボーンの上で、チャネル、ポイント、および空間に関する注意学習を活用します。
これにより、CNN バックボーンのみと比較した場合に、より優れた分類結果と、より優れたコンテキスト知識を備えたより確実な AP 機能が得られます。
私たちが提案するモジュールは、最大 92% の分類精度を達成します。
提案されたモデルによって AP 機能を検出する能力は、分類決定を引き起こす特定の AP 機能を検査するために使用された 3 つの異なるクラス アクティベーション マップ (CAM) メソッドの比較研究によって分析されました。
CAM メソッドの出力は、画像処理パイプラインによって処理され、ドライバーに説明可能な AP 機能のみが抽出され、視覚通知システムを使用して通知されました。
システムの有効性と AP 機能を証明するために、さまざまな実験が行われました。
各画像の合計領域の平均で 9.61% を占める AP 機能の除去により、特定の領域が非ホットスポットとして分類される可能性が最大 21.8% 増加しました。

要約(オリジナル)

In urban cities, visual information on and along roadways is likely to distract drivers and lead to missing traffic signs and other accident-prone (AP) features. To avoid accidents due to missing these visual cues, this paper proposes a visual notification of AP-features to drivers based on real-time images obtained via dashcam. For this purpose, Google Street View images around accident hotspots (areas of dense accident occurrence) identified by a real-accident dataset are used to train a novel attention module to classify a given urban scene into an accident hotspot or a non-hotspot (area of sparse accident occurrence). The proposed module leverages channel, point, and spatial-wise attention learning on top of different CNN backbones. This leads to better classification results and more certain AP-features with better contextual knowledge when compared with CNN backbones alone. Our proposed module achieves up to 92% classification accuracy. The capability of detecting AP-features by the proposed model were analyzed by a comparative study of three different class activation map (CAM) methods, which were used to inspect specific AP-features causing the classification decision. Outputs of CAM methods were processed by an image processing pipeline to extract only the AP-features that are explainable to drivers and notified using a visual notification system. Range of experiments was performed to prove the efficacy and AP-features of the system. Ablation of the AP-features taking 9.61%, on average, of the total area in each image increased the chance of a given area to be classified as a non-hotspot by up to 21.8%.

arxiv情報

著者 Sumit Mishra,Praveen Kumar Rajendran,Luiz Felipe Vecchietti,Dongsoo Har
発行日 2022-11-18 13:54:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク