Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules

要約

確率論的論理モデルは、神経協調反応性AIのコアコンポーネントであり、高い説明可能性を必要とするタスクにとってそれ自体が重要です。
ニューラルネットワークとは異なり、モデルの根底にある論理理論は、ドメインの専門知識を使用して手作りされることが多く、開発に費用がかかり、エラーが発生しやすくなります。
データから論理理論を学習するアルゴリズムがありますが、それらは一般に法外に高価であり、実際の設定での適用性を制限しています。
ここでは、論理ルールの精度とリコールを紹介し、その構成をルールユーティリティとして定義します。これは、論理理論の予測力の費用対効果の高い尺度です。
また、リレーショナルデータから論理理論を学習するためのスケーラブルなフレームワークであるSpectrumも紹介します。
そのスケーラビリティは、データグラフ内の再発サブグラフを採掘する線形時間アルゴリズムと、安価なユーティリティメジャーを使用して、これらのサブグラフから派生したルールを効率的にランク付けする2番目のアルゴリズムに由来します。
最後に、学んだ論理理論の有用性に関する理論的保証を証明します。
その結果、さまざまなタスクにわたって、スペクトルがより大きなデータセットにスケーリングされ、多くの場合、CPUでより正確な論理理論を学習して、GPUでのSOTAニューラルネットワークのランタイムがアプローチすることを示しています。

要約(オリジナル)

Probabilistic logical models are a core component of neurosymbolic AI and are important in their own right for tasks that require high explainability. Unlike neural networks, logical theories that underlie the model are often handcrafted using domain expertise, making their development costly and prone to errors. While there are algorithms that learn logical theories from data, they are generally prohibitively expensive, limiting their applicability in real-world settings. Here, we introduce precision and recall for logical rules and define their composition as rule utility — a cost-effective measure of the predictive power of logical theories. We also introduce SPECTRUM, a scalable framework for learning logical theories from relational data. Its scalability derives from a linear-time algorithm that mines recurrent subgraphs in the data graph along with a second algorithm that, using the cheap utility measure, efficiently ranks rules derived from these subgraphs. Finally, we prove theoretical guarantees on the utility of the learnt logical theory. As a result, we demonstrate across various tasks that SPECTRUM scales to larger datasets, often learning more accurate logical theories on CPUs in < 1% the runtime of SOTA neural network approaches on GPUs.

arxiv情報

著者 Jonathan Feldstein,Dominic Phillips,Efthymia Tsamoura
発行日 2025-02-28 16:29:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク