Adaptive Self-supervised Robust Clustering for Unstructured Data with Unknown Cluster Number

要約

クラスター数の事前知識を必要とせず、非構造化データに合わせて調整された新しい自己教師ありディープ クラスタリング アプローチを導入します。これは、適応型自己教師ありロバスト クラスタリング (ASRC) と呼ばれます。
特に、ASRC はグラフ構造とエッジの重みを適応的に学習して、ローカルとグローバルの両方の構造情報を取得します。
得られたグラフを使用すると、対比学習手法を備えた強化されたグラフ自動エンコーダーによって、クラスタリングに適した特徴表現を学習できます。
さらに、ロバスト連続クラスタリング (RCC) によって適応的に得られたクラスタリング結果を活用して、ネガティブ サンプリングのプロトタイプを生成します。これは、ポジティブ ペア間の一貫性の促進と、ポジティブ サンプルとネガティブ サンプル間のギャップの拡大にさらに貢献できます。
ASRC は、一貫したグラフ構造とエッジの重みを使用して学習された特徴表現に RCC を適用することにより、最終的なクラスタリング結果を取得します。
7 つのベンチマーク データセットに対して行われた広範な実験により、ASRC の有効性が実証され、他の一般的なクラスタリング モデルよりも優れたパフォーマンスが実証されました。
特に、ASRC はクラスター数の事前知識に依存する方法よりも優れたパフォーマンスを示し、非構造化データのクラスター化の課題に対処する際の ASRC の有効性が強調されています。

要約(オリジナル)

We introduce a novel self-supervised deep clustering approach tailored for unstructured data without requiring prior knowledge of the number of clusters, termed Adaptive Self-supervised Robust Clustering (ASRC). In particular, ASRC adaptively learns the graph structure and edge weights to capture both local and global structural information. The obtained graph enables us to learn clustering-friendly feature representations by an enhanced graph auto-encoder with contrastive learning technique. It further leverages the clustering results adaptively obtained by robust continuous clustering (RCC) to generate prototypes for negative sampling, which can further contribute to promoting consistency among positive pairs and enlarging the gap between positive and negative samples. ASRC obtains the final clustering results by applying RCC to the learned feature representations with their consistent graph structure and edge weights. Extensive experiments conducted on seven benchmark datasets demonstrate the efficacy of ASRC, demonstrating its superior performance over other popular clustering models. Notably, ASRC even outperforms methods that rely on prior knowledge of the number of clusters, highlighting its effectiveness in addressing the challenges of clustering unstructured data.

arxiv情報

著者 Chen-Lu Ding,Jiancan Wu,Wei Lin,Shiyang Shen,Xiang Wang,Yancheng Yuan
発行日 2024-07-29 15:51:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク