Incorporating Expert Rules into Neural Networks in the Framework of Concept-Based Learning

要約

この論文では、概念ベースの学習を拡張するためにエキスパート ルールを機械学習モデルに組み込む問題が定式化されています。
概念確率を予測する論理ルールとニューラルネットワークを組み合わせる方法が提案されています。
この組み合わせの背後にある最初のアイデアは、エキスパート ルールを満たすために、概念値のすべての組み合わせにわたる結合確率分布の制約を形成することです。
2 番目のアイデアは、実現可能な確率分布のセットを凸多面体の形で表し、その頂点または面を使用することです。
私たちは、前述の問題を解決し、概念の出力確率がエキスパート ルールに違反しないことを保証するニューラル ネットワークをトレーニングするためのいくつかのアプローチを提供します。
問題の解決は、帰納的学習と演繹的学習を組み合わせる方法とみなすことができます。
エキスパート ルールは、概念とクラス ラベル、または単に概念を相互に接続する論理関数がルールと見なされる場合に、より広い意味で使用されます。
この機能により、提案される結果のクラスが大幅に拡張されます。
数値例でアプローチを説明します。
提案されたアルゴリズムのコードは公開されています。

要約(オリジナル)

A problem of incorporating the expert rules into machine learning models for extending the concept-based learning is formulated in the paper. It is proposed how to combine logical rules and neural networks predicting the concept probabilities. The first idea behind the combination is to form constraints for a joint probability distribution over all combinations of concept values to satisfy the expert rules. The second idea is to represent a feasible set of probability distributions in the form of a convex polytope and to use its vertices or faces. We provide several approaches for solving the stated problem and for training neural networks which guarantee that the output probabilities of concepts would not violate the expert rules. The solution of the problem can be viewed as a way for combining the inductive and deductive learning. Expert rules are used in a broader sense when any logical function that connects concepts and class labels or just concepts with each other can be regarded as a rule. This feature significantly expands the class of the proposed results. Numerical examples illustrate the approaches. The code of proposed algorithms is publicly available.

arxiv情報

著者 Andrei V. Konstantinov,Lev V. Utkin
発行日 2024-02-22 17:33:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク