GCFAgg: Global and Cross-view Feature Aggregation for Multi-view Clustering

要約

タイトル:GCFAgg:マルチビュークラスタリングのためのグローバルおよびクロスビューフィーチャー集約

要約:

– マルチビュークラスタリングは、非監視学習によって共通表現を学習することで、データサンプルをそれぞれのカテゴリに分割できるため、近年ますます注目されています。
– しかしながら、既存の多層クラスタリング法の多くは、ビューごとに集約する方法によって複数ビューから共通表現またはビュースペシフィック表現を学習しており、全てのサンプルの構造的関係を無視しています。
– この論文では、Global and Cross-view Feature Aggregation for Multi-View Clustering(GCFAggMVC)と呼ばれる、これらの問題に対処する革新的なマルチビュークラスタリングネットワークを提案しています。
– 特に、複数のビューからの共通データ表現は、類似したサンプルの補完性を完全に探索するためのクロスサンプルおよびクロスビューフィーチャー集約によって得られます。
– さらに、構造ガイドコントラスティブ学習モジュールによって、共通表現とビュー特異表現を位置合わせし、異なるサンプルからのビュー特異表現が高い構造的関係にあるものは似たような表現になるようにします。
– 提案されたモジュールは、柔軟性のあるマルチビューデータ表現モジュールであり、他のフレームワークにモジュールを取り付けることで、不完全なマルチビューデータクラスタリングタスクにも組み込むことができます。
– 幅広い実験において、提案手法は完全なマルチビューデータクラスタリングタスクおよび不完全なマルチビューデータクラスタリングタスクの両方で優れた性能を発揮することが示されています。

要約(オリジナル)

Multi-view clustering can partition data samples into their categories by learning a consensus representation in unsupervised way and has received more and more attention in recent years. However, most existing deep clustering methods learn consensus representation or view-specific representations from multiple views via view-wise aggregation way, where they ignore structure relationship of all samples. In this paper, we propose a novel multi-view clustering network to address these problems, called Global and Cross-view Feature Aggregation for Multi-View Clustering (GCFAggMVC). Specifically, the consensus data presentation from multiple views is obtained via cross-sample and cross-view feature aggregation, which fully explores the complementary ofsimilar samples. Moreover, we align the consensus representation and the view-specific representation by the structure-guided contrastive learning module, which makes the view-specific representations from different samples with high structure relationship similar. The proposed module is a flexible multi-view data representation module, which can be also embedded to the incomplete multi-view data clustering task via plugging our module into other frameworks. Extensive experiments show that the proposed method achieves excellent performance in both complete multi-view data clustering tasks and incomplete multi-view data clustering tasks.

arxiv情報

著者 Weiqing Yan,Yuanyang Zhang,Chenlei Lv,Chang Tang,Guanghui Yue,Liang Liao,Weisi Lin
発行日 2023-05-11 13:41:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク