Effects of Explanation Specificity on Passengers in Autonomous Driving

要約

Explainable AI アルゴリズムによって提供される説明の性質は、Explainable AI および人間とコンピューターのインタラクション コミュニティで注目されているトピックです。
この論文では、自動運転における自然言語説明の特異性が乗客に与える影響を調査します。
説明生成のためのルールベースのオプションを追加することで、既存のデータ駆動型ツリーベースの説明アルゴリズムを拡張しました。
私たちは、さまざまなレベルの具体性(抽象的および具体的)を持つ聴覚自然言語説明を生成し、没入型物理運転シミュレーション設定を使用した被験者内ユーザー研究(N=39)でこれらの説明をテストしました。
私たちの結果は、抽象的な説明と具体的な説明の両方が、乗客の安全感と不安感に同様のプラスの効果をもたらすことを示しました。
しかし、具体的な説明は自動運転車(AV)から運転制御を引き継ぎたいという乗員の欲求に影響を与えたが、抽象的な説明は影響を与えなかった。
私たちは、自然言語による聴覚説明は自動運転の乗員にとって有用であり、その特異性のレベルは、車内の参加者が運転活動の制御をどの程度望むかに影響を与える可能性があると結論付けています。

要約(オリジナル)

The nature of explanations provided by an explainable AI algorithm has been a topic of interest in the explainable AI and human-computer interaction community. In this paper, we investigate the effects of natural language explanations’ specificity on passengers in autonomous driving. We extended an existing data-driven tree-based explainer algorithm by adding a rule-based option for explanation generation. We generated auditory natural language explanations with different levels of specificity (abstract and specific) and tested these explanations in a within-subject user study (N=39) using an immersive physical driving simulation setup. Our results showed that both abstract and specific explanations had similar positive effects on passengers’ perceived safety and the feeling of anxiety. However, the specific explanations influenced the desire of passengers to takeover driving control from the autonomous vehicle (AV), while the abstract explanations did not. We conclude that natural language auditory explanations are useful for passengers in autonomous driving, and their specificity levels could influence how much in-vehicle participants would wish to be in control of the driving activity.

arxiv情報

著者 Daniel Omeiza,Raunak Bhattacharyya,Nick Hawes,Marina Jirotka,Lars Kunze
発行日 2023-07-02 18:40:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC, cs.LG, cs.RO パーマリンク