Formal Conceptual Views in Neural Networks

要約

ニューラル ネットワーク モデルを説明することは、今日に至るまで完全に解決されていない困難な作業です。
これは、高次元の複雑なデータに特に当てはまります。
現在の作業では、ニューラル ネットワークの概念ビュー、特に多値ビューとシンボリック ビューの 2 つの概念を紹介します。
どちらも新しい分析方法を提供し、人間の AI アナリストがネットワークのニューロンによってキャプチャされた知識に対するより深い洞察を把握できるようにします。
ImageNet と Fruit-360 のデータ セットでさまざまな実験を行い、新しいビューの概念的な表現力をテストします。
さらに、ビューが異なる学習アーキテクチャの概念的な類似性をどの程度定量化できるかを示します。
最後に、ニューロンからの人間の理解可能なルールのアブダクティブ学習に概念ビューを適用する方法を示します。
要約すると、私たちの仕事は、ニューラル ネットワーク モデルをグローバルに説明するという最も関連性の高いタスクに貢献しています。

要約(オリジナル)

Explaining neural network models is a challenging task that remains unsolved in its entirety to this day. This is especially true for high dimensional and complex data. With the present work, we introduce two notions for conceptual views of a neural network, specifically a many-valued and a symbolic view. Both provide novel analysis methods to enable a human AI analyst to grasp deeper insights into the knowledge that is captured by the neurons of a network. We test the conceptual expressivity of our novel views through different experiments on the ImageNet and Fruit-360 data sets. Furthermore, we show to which extent the views allow to quantify the conceptual similarity of different learning architectures. Finally, we demonstrate how conceptual views can be applied for abductive learning of human comprehensible rules from neurons. In summary, with our work, we contribute to the most relevant task of globally explaining neural networks models.

arxiv情報

著者 Johannes Hirth,Tom Hanika
発行日 2022-09-27 16:38:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.AI, cs.CV, cs.LG パーマリンク