Principled and Efficient Motif Finding for Structure Learning of Lifted Graphical Models

要約

構造学習は、ニューロシンボリック AI と統計的関係学習の分野の中心にある AI の中心的な問題です。
それは、データから論理理論を自動的に学習することにあります。
構造学習の基礎は、構造モチーフと呼ばれるデータ内の繰り返しパターンをマイニングすることです。
これらのパターンを見つけると、指数関数的な検索スペースが減少するため、式の学習がガイドされます。
モチーフ学習の重要性にもかかわらず、それはまだよく理解されていません。
確率的プロセスを使用してデータ内のエンティティの類似性を測定する、一次論理と確率モデルを融合する言語であるリフトされたグラフィカル モデルで構造モチーフをマイニングするための最初の原則に基づいたアプローチを提示します。
私たちの最初の貢献は、2 つの直感的なハイパーパラメーターに依存するアルゴリズムです。1 つはエンティティの類似性測定における不確実性を制御し、もう 1 つは結果のルールの柔らかさを制御します。
2 つ目の貢献は、データに対して階層的クラスタリングを実行して、検索スペースを最も関連性の高いデータに縮小する前処理ステップです。
3 つ目の貢献は、構造的に関連するデータをクラスタリングするための O(n ln n) (データ内のエンティティのサイズ) アルゴリズムを導入することです。
標準ベンチマークを使用してアプローチを評価し、最先端の構造学習アプローチよりも精度で最大 6%、実行時間で最大 80% 優れていることを示します。

要約(オリジナル)

Structure learning is a core problem in AI central to the fields of neuro-symbolic AI and statistical relational learning. It consists in automatically learning a logical theory from data. The basis for structure learning is mining repeating patterns in the data, known as structural motifs. Finding these patterns reduces the exponential search space and therefore guides the learning of formulas. Despite the importance of motif learning, it is still not well understood. We present the first principled approach for mining structural motifs in lifted graphical models, languages that blend first-order logic with probabilistic models, which uses a stochastic process to measure the similarity of entities in the data. Our first contribution is an algorithm, which depends on two intuitive hyperparameters: one controlling the uncertainty in the entity similarity measure, and one controlling the softness of the resulting rules. Our second contribution is a preprocessing step where we perform hierarchical clustering on the data to reduce the search space to the most relevant data. Our third contribution is to introduce an O(n ln n) (in the size of the entities in the data) algorithm for clustering structurally-related data. We evaluate our approach using standard benchmarks and show that we outperform state-of-the-art structure learning approaches by up to 6% in terms of accuracy and up to 80% in terms of runtime.

arxiv情報

著者 Jonathan Feldstein,Dominic Phillips,Efthymia Tsamoura
発行日 2023-03-10 12:19:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク