要約
自動エンコーダに基づく深部分空間クラスタリングは幅広い注目を集めています。
ただし、自動エンコーダに基づくほとんどの部分空間クラスタリングは、自己表現係数行列の構造情報を利用しないため、クラスタリングのパフォーマンスが制限されます。
本稿では二重自己表現部分空間クラスタリングアルゴリズムを提案する。
私たちのソリューションの重要なアイデアは、自己表現的な係数を例の特徴表現として見て、別の係数行列を取得することです。
次に、2 つの係数行列を使用して、スペクトル クラスタリング用の親和性行列を構築します。
これにより、部分空間保存表現エラーが軽減され、接続性が向上することがわかりました。
クラスタリングのパフォーマンスをさらに強化するために、訓練されたネットワークのパフォーマンスをさらに向上させることができる、対照学習に基づく自己教師ありモジュールを提案しました。
いくつかのベンチマーク データセットでの実験により、提案されたアルゴリズムが最先端の方法よりも優れたクラスタリングを達成できることが実証されました。
要約(オリジナル)
Deep subspace clustering based on auto-encoder has received wide attention. However, most subspace clustering based on auto-encoder does not utilize the structural information in the self-expressive coefficient matrix, which limits the clustering performance. In this paper, we propose a double self-expressive subspace clustering algorithm. The key idea of our solution is to view the self-expressive coefficient as a feature representation of the example to get another coefficient matrix. Then, we use the two coefficient matrices to construct the affinity matrix for spectral clustering. We find that it can reduce the subspace-preserving representation error and improve connectivity. To further enhance the clustering performance, we proposed a self-supervised module based on contrastive learning, which can further improve the performance of the trained network. Experiments on several benchmark datasets demonstrate that the proposed algorithm can achieve better clustering than state-of-the-art methods.
arxiv情報
著者 | Ling Zhao,Yunpeng Ma,Shanxiong Chen,Jun Zhou |
発行日 | 2023-06-20 15:10:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google