Explaining Explaining

要約

説明は、人々が一か八かの AI システムに自信を持つための鍵となります。
しかし、現在の AI のほぼすべてを占める機械学習ベースのシステムは、通常はブラックボックスであるため説明できません。
Explainable AI (XAI) 運動は、「説明」を再定義することでこの問題を回避します。
人間中心の説明可能な AI (HCXAI) 運動は、ユーザーの説明指向のニーズを特定しますが、機械学習に注力しているため、それらを満たすことができません。
重要な領域で活動する実際の人間が必要とする種類の説明を実現するには、AI へのアプローチ方法を再考する必要があります。
必要に応じて機械学習を通じて取得されたデータによって補完された知識ベースのインフラストラクチャを使用する、コグニティブ エージェントを開発するためのハイブリッド アプローチについて説明します。
これらのエージェントは人間のアシスタントとして機能し、人間とロボットのチームの決定と行動に対して最終的な責任を負います。
私たちは、シミュレーションされたロボットのチームが人間によって割り当てられた検索タスクに協力するデモンストレーション システムの内部パネルを使用して、そのようなエージェントの説明可能性を説明します。

要約(オリジナル)

Explanation is key to people having confidence in high-stakes AI systems. However, machine-learning-based systems — which account for almost all current AI — can’t explain because they are usually black boxes. The explainable AI (XAI) movement hedges this problem by redefining ‘explanation’. The human-centered explainable AI (HCXAI) movement identifies the explanation-oriented needs of users but can’t fulfill them because of its commitment to machine learning. In order to achieve the kinds of explanations needed by real people operating in critical domains, we must rethink how to approach AI. We describe a hybrid approach to developing cognitive agents that uses a knowledge-based infrastructure supplemented by data obtained through machine learning when applicable. These agents will serve as assistants to humans who will bear ultimate responsibility for the decisions and actions of the human-robot team. We illustrate the explanatory potential of such agents using the under-the-hood panels of a demonstration system in which a team of simulated robots collaborate on a search task assigned by a human.

arxiv情報

著者 Sergei Nirenburg,Marjorie McShane,Kenneth W. Goodman,Sanjay Oruganti
発行日 2024-09-27 02:09:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MA, cs.RO パーマリンク