Flexible and Inherently Comprehensible Knowledge Representation for Data-Efficient Learning and Trustworthy Human-Machine Teaming in Manufacturing Environments

要約

人工知能エージェントの信頼性は、工業製造環境で人間と機械のチーム化を受け入れるために不可欠です。
予測可能な動作と説明可能な (そして理解可能な) 理論的根拠により、人間はこれらのエージェントと協力 (および構築) し、エージェントの動機を理解し、下された決定を検証することができます。
その目的のために、私たちはガルデンフォルスの認知にインスピレーションを得た概念空間フレームワークを利用して、本質的に理解可能な品質次元が広がる空間内の凸領域として概念を使用してエージェントの知識を表現します。
単純な典型性定量化モデルがその上に構築され、ファジー カテゴリ メンバーシップが決定され、インスタンスが解釈可能に分類されます。
協働ロボットの搭載センサーから取得した物体の物理的特性と、公開知識ベースで入手可能なクラウドソースの常識的知識からの利用特性を使用して、それを製造ドメインのユースケースに適用します。
プロパティ分解に基づくこのような柔軟な知識表現により、通常は高度に専門的または特定の製造成果物のデータ効率の高い表現学習が可能になります。
このような環境では、従来のデータ駆動型 (コンピューター ビジョン ベースなど) 分類アプローチは、トレーニング データが不足しているために困難を伴うでしょう。
これにより、AI エージェントが獲得した知識を人間の協力者が理解できるようになり、信頼性に貢献します。
私たちは、説明の要望を指定する既存の説明可能性フレームワーク内にアプローチを位置づけます。
私たちは、AI システムの設計、検証、運用を通じて、AI システムと連携するヒューマン エージェントのさまざまな役割に対するシステムの適用性と適切性についての議論を提供します。

要約(オリジナル)

Trustworthiness of artificially intelligent agents is vital for the acceptance of human-machine teaming in industrial manufacturing environments. Predictable behaviours and explainable (and understandable) rationale allow humans collaborating with (and building) these agents to understand their motivations and therefore validate decisions that are made. To that aim, we make use of G\’ardenfors’s cognitively inspired Conceptual Space framework to represent the agent’s knowledge using concepts as convex regions in a space spanned by inherently comprehensible quality dimensions. A simple typicality quantification model is built on top of it to determine fuzzy category membership and classify instances interpretably. We apply it on a use case from the manufacturing domain, using objects’ physical properties obtained from cobots’ onboard sensors and utilisation properties from crowdsourced commonsense knowledge available at public knowledge bases. Such flexible knowledge representation based on property decomposition allows for data-efficient representation learning of typically highly specialist or specific manufacturing artefacts. In such a setting, traditional data-driven (e.g., computer vision-based) classification approaches would struggle due to training data scarcity. This allows for comprehensibility of an AI agent’s acquired knowledge by the human collaborator thus contributing to trustworthiness. We situate our approach within an existing explainability framework specifying explanation desiderata. We provide arguments for our system’s applicability and appropriateness for different roles of human agents collaborating with the AI system throughout its design, validation, and operation.

arxiv情報

著者 Vedran Galetić,Alistair Nottle
発行日 2023-05-19 11:18:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク