要約
この研究では、AI を「信頼できる」または「信頼できる」とラベル付けすることが、自動車 AI テクノロジーに対するユーザーの認識と受け入れに影響を与えるかどうかを調査しています。
この研究では被験者間の一方向デザインを使用し、信頼できる AI または信頼できる AI のガイドラインを提示された 478 人のオンライン参加者が参加しました。
次に、参加者は 3 つのビネット シナリオを評価し、認識された使いやすさ、人間らしい信頼性、全体的な態度などの変数を含むテクノロジー受け入れモデルの修正版を完成させました。
AI に「信頼できる」というラベルを付けることは、特定のシナリオでの判断に大きな影響を与えませんでしたが、認識された使いやすさと人間のような信頼、特に慈善性を高めました。
これは、ユーザビリティへのプラスの影響と、ユーザーの認識への擬人化効果を示唆しています。
この研究は、特定のラベルが AI テクノロジーに対する態度にどのような影響を与える可能性があるかについての洞察を提供します。
要約(オリジナル)
This study explores whether labeling AI as ‘trustworthy’ or ‘reliable’ influences user perceptions and acceptance of automotive AI technologies. Using a one-way between-subjects design, the research involved 478 online participants who were presented with guidelines for either trustworthy or reliable AI. Participants then evaluated three vignette scenarios and completed a modified version of the Technology Acceptance Model, which included variables such as perceived ease of use, human-like trust, and overall attitude. Although labeling AI as ‘trustworthy’ did not significantly influence judgments on specific scenarios, it increased perceived ease of use and human-like trust, particularly benevolence. This suggests a positive impact on usability and an anthropomorphic effect on user perceptions. The study provides insights into how specific labels can influence attitudes toward AI technology.
arxiv情報
著者 | John Dorsch,Ophelia Deroy |
発行日 | 2024-08-20 14:48:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google