要約
自動運転車は多くの場合、収集したセンサー データに適用される機械学習ベースの予測モデルを介して複雑な意思決定を行います。
この方法の組み合わせはリアルタイム アクションの基盤を提供しますが、自動運転の動作は主にエンド ユーザーにはわかりません。
この意味で、リアルタイムの意思決定の説明可能性は、自動運転車の信頼を構築するための重要かつ自然な要件です。
さらに、自動運転車は依然としてさまざまな理由で重大な交通事故を引き起こしているため、今後の危険を道路利用者にタイムリーに伝えることは、現場の理解を向上させ、潜在的なリスクを防ぐのに役立ちます。
したがって、効果的な人間と機械のチーム化のために、ユーザーフレンドリーなインターフェイスを自動運転車に提供する必要もあります。
この問題を動機として、私たちは車両の自律性における信頼を構築する際の説明可能な AI とマンマシン インターフェイスの役割を共同で研究しています。
まず、「3W1H」(何を、誰が、いつ、どのように) アプローチを使用して、説明的なヒューマン マシン システムの広範なコンテキストを提示します。
これらの調査結果に基づいて、自動運転行動に対するユーザーの信頼を調整するための状況認識フレームワークを紹介します。
最後に、フレームワークで実験を実行し、ユーザー調査を実施して、仮説テストで経験的発見を検証します。
要約(オリジナル)
Autonomous vehicles often make complex decisions via machine learning-based predictive models applied to collected sensor data. While this combination of methods provides a foundation for real-time actions, self-driving behavior primarily remains opaque to end users. In this sense, explainability of real-time decisions is a crucial and natural requirement for building trust in autonomous vehicles. Moreover, as autonomous vehicles still cause serious traffic accidents for various reasons, timely conveyance of upcoming hazards to road users can help improve scene understanding and prevent potential risks. Hence, there is also a need to supply autonomous vehicles with user-friendly interfaces for effective human-machine teaming. Motivated by this problem, we study the role of explainable AI and human-machine interface jointly in building trust in vehicle autonomy. We first present a broad context of the explanatory human-machine systems with the ‘3W1H’ (what, whom, when, how) approach. Based on these findings, we present a situation awareness framework for calibrating users’ trust in self-driving behavior. Finally, we perform an experiment on our framework, conduct a user study on it, and validate the empirical findings with hypothesis testing.
arxiv情報
著者 | Shahin Atakishiyev,Mohammad Salameh,Randy Goebel |
発行日 | 2024-04-10 23:02:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google