XXAI: Explicitly Explainable AI provides transparency in automatic decision-making by overcoming the limitations of symbolic AI

要約

サブシンボリック ニューラル ネットワーク AI の決定は明示的に説明できないため、その信頼性と安全性について懸念があります。
これが現代のAIのブラックボックス問題です。
同時に、シンボリックAIはホワイトボックスの性質を持ち、その判断の信頼性と安全性を確保することができます。
しかし、数学モデルと自然言語用語の不透明さ、統一されたオントロジーの欠如、検索機能の組み合わせ爆発など、いくつかの問題がシンボリック AI の広範な使用を妨げています。
AI のブラックボックス問題を解決するために、我々は Explicitly Explainable AI (XXAI) を提案します。これは、決定論的論理セル オートマトンに基づく完全に透明なホワイトボックス AI であり、そのルールは関連領域の一般理論の第一原理から導出されます。
この場合、ドメインの一般理論は、セル オートマトンの推論を導き出すための知識ベースの役割を果たします。
セル オートマトンは、要素ベースのローカルな相互作用からシステム全体に至るまで、組織のすべてのレベルで並列マルチレベル論理推論を実装します。
いくつかの生態学的仮説の検証は、提案された解決策の成功した実装の前例となります。
XXAI は、最終段階とトレーニング段階の両方で、サブシンボリック ニューラル ネットワーク AI の決定の信頼性、安全性、倫理性を自動的に検証できます。
この文書では、XXAI を作成するための理論的および方法論的な基礎を示し、この方向性の見通しについて説明します。

要約(オリジナル)

There are concerns about the reliability and safety of sub-symbolic neural network AI because its decisions cannot be explained explicitly. This is the black box problem of modern AI. At the same time, symbolic AI has the nature of a white box and is able to ensure the reliability and safety of its decisions. However, several problems prevent the widespread use of symbolic AI: the opacity of mathematical models and natural language terms, the lack of a unified ontology, and the combinatorial explosion of search capabilities. To solve the black-box problem of AI, we propose Explicitly Explainable AI (XXAI) – a fully transparent white-box AI based on deterministic logical cellular automata whose rules are derived from the first principles of the general theory of the relevant domain. In this case, the general theory of the domain plays the role of a knowledge base for deriving the inferences of the cellular automata. A cellular automaton implements parallel multi-level logical inference at all levels of organization – from local interactions of the element base to the system as a whole. Our verification of several ecological hypotheses sets a precedent for the successful implementation of the proposed solution. XXAI can automatically verify the reliability, safety, and ethicality of sub-symbolic neural network AI decisions during both the final and training phases. This paper presents the theoretical and methodological foundations for creating XXAI and discusses the prospects for this direction.

arxiv情報

著者 V. L. Kalmykov,L. V. Kalmykov
発行日 2024-03-11 12:57:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-bio.PE パーマリンク