要約
教師なしシナリオにおいて、ディープコントラストマルチビュークラスタリング(DCMVC)は、異なるビュー間の潜在的な関係を掘り起こすことを目的としたホットな研究スポットとなりつつある。既存のDCMVCアルゴリズムの多くは、深い意味特徴の一貫性情報を探索することに焦点を当て、浅い特徴の多様な情報を無視している。このギャップを埋めるために、我々はCodingNetと呼ばれる新しいマルチビュークラスタリングネットワークを提案する。具体的には、従来のオートエンコーダを利用する代わりに、非対称構造のネットワークを設計し、浅い特徴と深い特徴を別々に抽出する。そして、浅い特徴の類似度行列をゼロ行列に揃えることで、浅い特徴の多様性を確保し、多視点データのより良い記述を提供する。さらに、ビューフィーチャと擬似ラベルの両方のレベルで、深い特徴量の一貫性を維持する二重対比メカニズムを提案する。我々のフレームワークの有効性は、広く利用されている6つのベンチマークデータセットを用いた広範な実験により検証され、ほとんどの最先端のマルチビュークラスタリングアルゴリズムを凌駕している。
要約(オリジナル)
In unsupervised scenarios, deep contrastive multi-view clustering (DCMVC) is becoming a hot research spot, which aims to mine the potential relationships between different views. Most existing DCMVC algorithms focus on exploring the consistency information for the deep semantic features, while ignoring the diverse information on shallow features. To fill this gap, we propose a novel multi-view clustering network termed CodingNet to explore the diverse and consistent information simultaneously in this paper. Specifically, instead of utilizing the conventional auto-encoder, we design an asymmetric structure network to extract shallow and deep features separately. Then, by aligning the similarity matrix on the shallow feature to the zero matrix, we ensure the diversity for the shallow features, thus offering a better description of multi-view data. Moreover, we propose a dual contrastive mechanism that maintains consistency for deep features at both view-feature and pseudo-label levels. Our framework’s efficacy is validated through extensive experiments on six widely used benchmark datasets, outperforming most state-of-the-art multi-view clustering algorithms.
arxiv情報
著者 | Qun Zheng,Xihong Yang,Siwei Wang,Xinru An,Qi Liu |
発行日 | 2023-09-01 14:13:22+00:00 |
arxivサイト | arxiv_id(pdf) |