要約
自動運転車の分野では、人間と車両の副操縦士システムが研究で大きな注目を集めています。
人間参加型共同運転システムの安全性にとって極めて重要である、ドライバーの状態と相互作用の行動における主観的な不確実性に対処するために、新しい視覚触覚認識方法を導入します。
運転シミュレーション プラットフォームを利用して、疲労や注意力散漫状態におけるマルチモーダル データを含む包括的なデータセットが開発されました。
この実験セットアップでは、運転シミュレーションと信号取得が統合されており、被験者 15 名からの 600 分の疲労検出データと、ドライバー 17 名による 102 回の乗っ取り実験が得られます。
このデータセットはモダリティ間で同期され、クロスモーダルのドライバー行動認識アルゴリズムを進歩させるための堅牢なリソースとして機能します。
要約(オリジナル)
In the domain of autonomous vehicles, the human-vehicle co-pilot system has garnered significant research attention. To address the subjective uncertainties in driver state and interaction behaviors, which are pivotal to the safety of Human-in-the-loop co-driving systems, we introduce a novel visual-tactile perception method. Utilizing a driving simulation platform, a comprehensive dataset has been developed that encompasses multi-modal data under fatigue and distraction conditions. The experimental setup integrates driving simulation with signal acquisition, yielding 600 minutes of fatigue detection data from 15 subjects and 102 takeover experiments with 17 drivers. The dataset, synchronized across modalities, serves as a robust resource for advancing cross-modal driver behavior perception algorithms.
arxiv情報
著者 | Jie Wang,Mobing Cai,Zhongpan Zhu,Hongjun Ding,Jiwei Yi,Aimin Du |
発行日 | 2024-12-06 09:31:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google