Posterior Regularization on Bayesian Hierarchical Mixture Clustering

要約

タイトル:ベイジアン階層混合クラスタリングにおける事後正則化

要約:
– ベイジアン階層混合クラスタリング(BHMC)は、従来のベイジアン階層クラスタリングを改良する手法である。BHMCは、親ノードから子ノードに拡散する際の従来のガウスカーネルをハイエラルキカル・ディリクレ過程混合モデル(HDPMM)で置き換えることで実現される。
– ただし、BHMCは、上位レベルのノード間の分離が弱いことを示す高いノード分散のツリーを生成する可能性がある。この問題に対処するため、事後正則化を用いる。
– 事後正則化は、各レベルのノードに最大マージン制約を課し、クラスタの分離を強化する手法である。PRをBHMCに適用する方法を説明し、BHMCモデルを改善する効果を実証する。

要点:
– BHMCは、HDPMMを用いて親から子への拡散を実現する手法である。
– BHMCは、高いノード分散のツリーを生成する可能性がある。
– 事後正則化は、クラスタの分離を強化する手法である。
– PRをBHMCに適用することで、BHMCモデルの改善が実現できる。

要約(オリジナル)

Bayesian hierarchical mixture clustering (BHMC) improves traditionalBayesian hierarchical clustering by replacing conventional Gaussian-to-Gaussian kernels with a Hierarchical Dirichlet Process Mixture Model(HDPMM) for parent-to-child diffusion in the generative process. However,BHMC may produce trees with high nodal variance, indicating weak separation between nodes at higher levels. To address this issue, we employ Posterior Regularization, which imposes max-margin constraints on nodes at every level to enhance cluster separation. We illustrate how to apply PR toBHMC and demonstrate its effectiveness in improving the BHMC model.

arxiv情報

著者 Weipeng Huang,Tin Lok James Ng,Nishma Laitonjam,Neil J. Hurley
発行日 2023-05-05 15:46:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク