Deep Attention-guided Graph Clustering with Dual Self-supervision

要約

既存のディープ エンベディング クラスタリングは、特徴のエンベディングを学習するために最も深いレイヤーのみを考慮しているため、クラスター割り当てから利用可能な識別情報を十分に活用できず、結果としてパフォーマンスが制限されます。
この目的のために、我々は新しい方法、すなわちデュアルセルフスーパービジョン(DAGC)を使用したディープアテンションガイドグラフクラスタリングを提案します。
具体的には、DAGC は最初に異種性に応じた融合モジュールを利用して、各レイヤーの自動エンコーダーとグラフ畳み込みネットワークの機能を適応的に統合し、次にスケールごとの融合モジュールを使用して、異なるレイヤーのマルチスケール機能を動的に連結します。
このようなモジュールは、注意ベースのメカニズムを介して、識別機能埋め込みを学習できます。
さらに、クラスタ割り当てを利用してクラスタリング結果を直接取得する分布型融合モジュールを設計します。
クラスター割り当てからの識別情報をより適切に調査するために、トリプレット カルバック ライブラー ダイバージェンス損失を伴うソフト自己監督戦略と、疑似監督損失を伴うハード自己監督戦略からなるデュアル自己監督ソリューションを開発します。
広範な実験により、6 つのベンチマーク データセットで、当社の方法が最新の方法よりも一貫して優れていることが検証されています。
特に、私たちの方法は、最良のベースラインよりも 18.14% 以上 ARI を改善します。

要約(オリジナル)

Existing deep embedding clustering works only consider the deepest layer to learn a feature embedding and thus fail to well utilize the available discriminative information from cluster assignments, resulting performance limitation. To this end, we propose a novel method, namely deep attention-guided graph clustering with dual self-supervision (DAGC). Specifically, DAGC first utilizes a heterogeneity-wise fusion module to adaptively integrate the features of an auto-encoder and a graph convolutional network in each layer and then uses a scale-wise fusion module to dynamically concatenate the multi-scale features in different layers. Such modules are capable of learning a discriminative feature embedding via an attention-based mechanism. In addition, we design a distribution-wise fusion module that leverages cluster assignments to acquire clustering results directly. To better explore the discriminative information from the cluster assignments, we develop a dual self-supervision solution consisting of a soft self-supervision strategy with a triplet Kullback-Leibler divergence loss and a hard self-supervision strategy with a pseudo supervision loss. Extensive experiments validate that our method consistently outperforms state-of-the-art methods on six benchmark datasets. Especially, our method improves the ARI by more than 18.14% over the best baseline.

arxiv情報

著者 Zhihao Peng,Hui Liu,Yuheng Jia,Junhui Hou
発行日 2022-12-26 05:45:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク