Trust in AI: Progress, Challenges, and Future Directions

要約

さまざまなアプリケーション、サービス、製品を通じて日常生活における人工知能 (AI) システムの使用が増加していることは、ユーザーの観点から AI に対する信頼/不信の重要性を説明しています。
AI 駆動システムは(他のテクノロジーとは対照的に)人間のエージェントによって使用される有益なツールとしてだけでなく、私たちの代わりとなるエージェント、または人間の思考に影響を与える操作的な精神として、私たちの生活のいたるところに普及しています。
決断力と主体性。
AI に対する信頼/不信は規制の役割を果たしており、信頼が高まると AI の導入率が低下する可能性があるため、この普及のレベルを大きく制御する可能性があります。
最近、さまざまな研究が AI における信頼/不信のさまざまな側面とそれに関連する考慮事項に注目しています。
この体系的な文献レビューでは、現在の AI 文献レビューにおける信頼の概念化後、さまざまな種類の人間とマシンの相互作用における信頼と、さまざまな領域でのテクノロジーの受け入れに対する信頼の影響を調査します。
それに加えて、技術的 (つまり、安全性、精度、堅牢性) および非技術的 (つまり、倫理的、法的、および混合) の信頼性指標の分類法と、いくつかの信頼できる測定値を提案します。
さらに、AI におけるいくつかの主要な信頼破壊要因 (自律性や尊厳の脅威など) と信頼形成者を検証します。
そして、信頼できる AI への移行に向けた将来の方向性と考えられる解決策をいくつか提案します。

要約(オリジナル)

The increasing use of artificial intelligence (AI) systems in our daily life through various applications, services, and products explains the significance of trust/distrust in AI from a user perspective. AI-driven systems (as opposed to other technologies) have ubiquitously diffused in our life not only as some beneficial tools to be used by human agents but also are going to be substitutive agents on our behalf, or manipulative minds that would influence human thought, decision, and agency. Trust/distrust in AI plays the role of a regulator and could significantly control the level of this diffusion, as trust can increase, and distrust may reduce the rate of adoption of AI. Recently, varieties of studies have paid attention to the variant dimension of trust/distrust in AI, and its relevant considerations. In this systematic literature review, after conceptualization of trust in the current AI literature review, we will investigate trust in different types of human-Machine interaction, and its impact on technology acceptance in different domains. In addition to that, we propose a taxonomy of technical (i.e., safety, accuracy, robustness) and non-technical axiological (i.e., ethical, legal, and mixed) trustworthiness metrics, and some trustworthy measurements. Moreover, we examine some major trust-breakers in AI (e.g., autonomy and dignity threat), and trust makers; and propose some future directions and probable solutions for the transition to a trustworthy AI.

arxiv情報

著者 Saleh Afroogh,Ali Akbari,Evan Malone,Mohammadali Kargar,Hananeh Alambeigi
発行日 2024-03-28 14:13:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク