Scaling the weight parameters in Markov logic networks and relational logistic regression models

要約

私たちは、マルコフ論理ネットワークとリレーショナル ロジスティック回帰を、仕様で重み付けされた式を使用する統計的リレーショナル人工知能における 2 つの基本的な表現形式とみなします。
ただし、マルコフ論理ネットワークは無向グラフに基づいており、リレーショナル ロジスティック回帰は有向非巡回グラフに基づいています。
重みパラメータをドメイン サイズでスケーリングする場合、関係ロジスティック回帰モデルの漸近挙動がパラメータによって透過的に制御されることを示し、漸近確率を計算するアルゴリズムを提供します。
また、これがマルコフ論理ネットワークには当てはまらないことを 2 つの例を使用して示します。
また、主に文献からのいくつかの例を使用して、ユーザーがそのようなスケーリングが適切な場合と、スケーリングされていない生のパラメーターを使用する方が望ましい場合を決定する際にアプリケーション コンテキストがどのように役立つかについても説明します。
私たちは、スケールモデルの特に有望な応用分野としてランダムサンプリングを強調し、さらなる研究のための可能な手段を説明します。

要約(オリジナル)

We consider Markov logic networks and relational logistic regression as two fundamental representation formalisms in statistical relational artificial intelligence that use weighted formulas in their specification. However, Markov logic networks are based on undirected graphs, while relational logistic regression is based on directed acyclic graphs. We show that when scaling the weight parameters with the domain size, the asymptotic behaviour of a relational logistic regression model is transparently controlled by the parameters, and we supply an algorithm to compute asymptotic probabilities. We also show using two examples that this is not true for Markov logic networks. We also discuss using several examples, mainly from the literature, how the application context can help the user to decide when such scaling is appropriate and when using the raw unscaled parameters might be preferable. We highlight random sampling as a particularly promising area of application for scaled models and expound possible avenues for further research.

arxiv情報

著者 Felix Weitkämper
発行日 2024-05-16 14:32:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.LO パーマリンク