Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules

要約

確率的論理モデルは神経記号 AI の中核コンポーネントであり、それ自体が高い説明可能性を必要とするタスクにとって重要なモデルです。
ニューラル ネットワークとは異なり、論理モデルはドメインの専門知識を使用して手作りされることが多く、その開発にはコストがかかり、エラーが発生しやすくなります。
データから論理モデルを学習するアルゴリズムはありますが、それらは一般に法外に高価であり、現実世界の設定での適用が制限されます。
この研究では、論理ルールの精度と再現率を導入し、その構成をルールの有用性、つまり論理モデルの予測力を評価するための費用対効果の高い尺度として定義します。
さらに、リレーショナル データから論理モデルを学習するためのスケーラブルなフレームワークである SPECTRUM を紹介します。
そのスケーラビリティは、データ内の繰り返し構造をマイニングする線形時間アルゴリズムと、安価なユーティリティの尺度を使用してこれらの構造から構築されたルールを効率的にランク付けする 2 番目のアルゴリズムに由来しています。
さらに、学習された論理モデルの有用性について理論的な保証を導き出します。
その結果、SPECTRUM は、実世界のデータセットに対する以前の方法よりも桁違いに速く、より正確な論理モデルを学習します。

要約(オリジナル)

Probabilistic logical models are a core component of neurosymbolic AI and are important models in their own right for tasks that require high explainability. Unlike neural networks, logical models are often handcrafted using domain expertise, making their development costly and prone to errors. While there are algorithms that learn logical models from data, they are generally prohibitively expensive, limiting their applicability in real-world settings. In this work, we introduce precision and recall for logical rules and define their composition as rule utility — a cost-effective measure to evaluate the predictive power of logical models. Further, we introduce SPECTRUM, a scalable framework for learning logical models from relational data. Its scalability derives from a linear-time algorithm that mines recurrent structures in the data along with a second algorithm that, using the cheap utility measure, efficiently ranks rules built from these structures. Moreover, we derive theoretical guarantees on the utility of the learnt logical model. As a result, SPECTRUM learns more accurate logical models orders of magnitude faster than previous methods on real-world datasets.

arxiv情報

著者 Jonathan Feldstein,Dominic Phillips,Efthymia Tsamoura
発行日 2024-09-24 16:54:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク