要約
償却された確率的クラスタリングのニューラルモデルは、セット構造化された入力を与えられたクラスターラベルの収量サンプルと、長いマルコフチェーンの実行と明示的なデータの尤度の必要性を回避します。
ニューラルクラスタリングプロセスのように、各データポイントに順番にラベルを付ける既存のメソッドは、多くの場合、データの順序に大きく依存するクラスターの割り当てにつながります。
あるいは、完全なクラスターを順次作成する方法は、割り当て確率を提供しません。
この論文では、償却クラスタリングの新しいフレームワークであるGFNCPを紹介します。
GFNCPは、ポリシーと報酬のエネルギーベースのパラメーター化を共有する生成フローネットワークとして策定されています。
流れの一致条件は、疎外下でのクラスタリング後部の一貫性と同等であることを示し、それが次に注文不変性を意味します。
GFNCPは、合成データと現実世界の両方のデータのクラスタリングパフォーマンスの既存の方法も上回ります。
要約(オリジナル)
Neural models for amortized probabilistic clustering yield samples of cluster labels given a set-structured input, while avoiding lengthy Markov chain runs and the need for explicit data likelihoods. Existing methods which label each data point sequentially, like the Neural Clustering Process, often lead to cluster assignments highly dependent on the data order. Alternatively, methods that sequentially create full clusters, do not provide assignment probabilities. In this paper, we introduce GFNCP, a novel framework for amortized clustering. GFNCP is formulated as a Generative Flow Network with a shared energy-based parametrization of policy and reward. We show that the flow matching conditions are equivalent to consistency of the clustering posterior under marginalization, which in turn implies order invariance. GFNCP also outperforms existing methods in clustering performance on both synthetic and real-world data.
arxiv情報
著者 | Irit Chelly,Roy Uziel,Oren Freifeld,Ari Pakman |
発行日 | 2025-02-26 17:30:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google