Interpretable Neural-Symbolic Concept Reasoning

要約

タイトル:解釈可能なニューラルシンボリック概念推論
要約:

– ディープラーニングの手法は高い精度を持っていますが、彼らの不透明な意思決定プロセスが完全な人間の信頼を得ることを防いでしまっています。
– 概念ベースのモデルは、人が理解できる一連の概念に基づいてタスクを学習することで、この問題に取り組むことを目指しています。
– しかし、最先端の概念ベースのモデルは、意味の明確でない高次元の概念埋め込み表現に依存しており、その意思決定プロセスの解釈可能性を疑問視しています。
– この制限を克服するために、我々はDeep Concept Reasoner(DCR)を提案しており、概念埋め込みを基にした初めての解釈可能な概念ベースのモデルとして構築します。
– DCRにおいて、ニューラルネットワークはタスク予測を直接行わず、概念埋め込みを用いた構文ルール構造を構築します。
– DCRは、最終的に解釈可能で意味的に一貫した予測を提供するために、これらのルールを意味のある概念真偽度に基づいて実行します。
– 我々の実験によると、DCRは、難しいベンチマークに対して最先端の解釈可能な概念ベースのモデルに比べて、最大25%まで精度が向上し、(ii)概念監視がない場合でも既知の基本的な真実に一致する有意義な論理ルールを発見し、(iii)学習されたルールをガイドとして提供し、反事実的な例の生成を容易にします。

要約(オリジナル)

Deep learning methods are highly accurate, yet their opaque decision process prevents them from earning full human trust. Concept-based models aim to address this issue by learning tasks based on a set of human-understandable concepts. However, state-of-the-art concept-based models rely on high-dimensional concept embedding representations which lack a clear semantic meaning, thus questioning the interpretability of their decision process. To overcome this limitation, we propose the Deep Concept Reasoner (DCR), the first interpretable concept-based model that builds upon concept embeddings. In DCR, neural networks do not make task predictions directly, but they build syntactic rule structures using concept embeddings. DCR then executes these rules on meaningful concept truth degrees to provide a final interpretable and semantically-consistent prediction in a differentiable manner. Our experiments show that DCR: (i) improves up to +25% w.r.t. state-of-the-art interpretable concept-based models on challenging benchmarks (ii) discovers meaningful logic rules matching known ground truths even in the absence of concept supervision during training, and (iii), facilitates the generation of counterfactual examples providing the learnt rules as guidance.

arxiv情報

著者 Pietro Barbiero,Gabriele Ciravegna,Francesco Giannini,Mateo Espinosa Zarlenga,Lucie Charlotte Magister,Alberto Tonda,Pietro Lio’,Frederic Precioso,Mateja Jamnik,Giuseppe Marra
発行日 2023-04-27 09:58:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, cs.NE, stat.ML パーマリンク