Prime Convolutional Model: Breaking the Ground for Theoretical Explainability

要約

この論文では、説明可能なAIに対する新しい理論的アプローチを提案します。
科学的方法に従って、このアプローチは、神経ネットワークの行動を説明および予測する数学的モデルである経験的証拠に基づいて定式化することにあります。
この方法は、制御された環境で作成されたケーススタディに適用します。これは、プライムコンボリューションモデル(略してP-CONV)と呼ばれます。
P-CONVは、最初の100万の自然数で構成されるデータセットで動作し、特定の整数$ m $をmodulo asidulo moduloを特定するように訓練されています。
そのアーキテクチャは、各入力に対して連続した$ b $のシーケンスをコンテキスト的に処理する畳み込み型ニューラルネットワークを使用しています。
経験的アプローチを採用し、P-CONVを活用して、$ m $と$ b $の異なる値を使用して、検証セットの合同の数字クラスを特定します。
結果は、P-CONVの異なる動作(つまり、タスクを実行できるかどうか)を$ m $と$ b $の観点から数学的にモデル化できることを示しています。
推定された数学モデルは、P-CONVがタスクの実行に成功する時期と理由を説明できる興味深いパターンを明らかにします。

要約(オリジナル)

In this paper, we propose a new theoretical approach to Explainable AI. Following the Scientific Method, this approach consists in formulating on the basis of empirical evidence, a mathematical model to explain and predict the behaviors of Neural Networks. We apply the method to a case study created in a controlled environment, which we call Prime Convolutional Model (p-Conv for short). p-Conv operates on a dataset consisting of the first one million natural numbers and is trained to identify the congruence classes modulo a given integer $m$. Its architecture uses a convolutional-type neural network that contextually processes a sequence of $B$ consecutive numbers to each input. We take an empirical approach and exploit p-Conv to identify the congruence classes of numbers in a validation set using different values for $m$ and $B$. The results show that the different behaviors of p-Conv (i.e., whether it can perform the task or not) can be modeled mathematically in terms of $m$ and $B$. The inferred mathematical model reveals interesting patterns able to explain when and why p-Conv succeeds in performing task and, if not, which error pattern it follows.

arxiv情報

著者 Francesco Panelli,Doaa Almhaithawi,Tania Cerquitelli,Alessandro Bellini
発行日 2025-03-04 16:42:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク