Joint Probability Trees

要約

同時確率ツリー (JPT) を紹介します。これは、同時確率分布の学習と推論を実際のアプリケーションで扱いやすくする新しいアプローチです。
JPT は、単一のハイブリッド モデルでシンボリック変数とサブシンボリック変数の両方をサポートし、変数の依存関係や分布のファミリに関する事前の知識に依存しません。
JPT 表現は、学習前に厳密な依存関係モデルを仮定するのではなく、トレーニング データから引き出された関連するサブ領域に問題空間を分割するツリー構造に基づいて構築されます。
学習と推論は JPT で直線的にスケーリングされ、ツリー構造により、任意の事後確率 $P(Q|E)$ に関するホワイトボックス推論が可能になるため、推論結果に対して解釈可能な説明を提供できます。
私たちの実験は、何百万ものトレーニング サンプルを含む高次元の異種確率空間での JPT の実用的な適用性を示しており、従来の確率的グラフィカル モデルの有望な代替手段となっています。

要約(オリジナル)

We introduce Joint Probability Trees (JPT), a novel approach that makes learning of and reasoning about joint probability distributions tractable for practical applications. JPTs support both symbolic and subsymbolic variables in a single hybrid model, and they do not rely on prior knowledge about variable dependencies or families of distributions. JPT representations build on tree structures that partition the problem space into relevant subregions that are elicited from the training data instead of postulating a rigid dependency model prior to learning. Learning and reasoning scale linearly in JPTs, and the tree structure allows white-box reasoning about any posterior probability $P(Q|E)$, such that interpretable explanations can be provided for any inference result. Our experiments showcase the practical applicability of JPTs in high-dimensional heterogeneous probability spaces with millions of training samples, making it a promising alternative to classic probabilistic graphical models.

arxiv情報

著者 Daniel Nyga,Mareike Picklum,Tom Schierenbeck,Michael Beetz
発行日 2023-02-14 16:29:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク