Learning Network Representations with Disentangled Graph Auto-Encoder

要約

(変分) グラフ自動エンコーダは、グラフ構造データの表現を学習するために広く使用されています。
ただし、現実世界のグラフの形成は、潜在的な要因の影響を受ける複雑で異質なプロセスです。
既存のエンコーダは基本的に全体的であり、潜在的な要因の絡み合いを無視しています。
これにより、グラフ分析タスクの効率が低下すると同時に、学習された表現を説明することがさらに困難になります。
その結果、(変分) グラフ自動エンコーダーを使用してもつれの解けたグラフ表現を学習することは重大な課題を引き起こし、現在の研究ではほとんど解明されていないままです。
この論文では、もつれのない表現を学習するために、もつれのないグラフ オート エンコーダ (DGA) ともつれのない変分グラフ オート エンコーダ (DVGA) を紹介します。
具体的には、最初に、エンコーダとして機能するマルチチャネル メッセージ パッシング層を備えた、もつれのないグラフ畳み込みネットワークを設計します。
これにより、各チャネルが各潜在要因に関する情報を集約できるようになります。
次に、コンポーネントごとのフローを各チャネルに適用することで、解きほぐされた変分グラフ オート エンコーダーの表現力が強化されます。
さらに、もつれの解けた表現の特性を考慮した因子ごとのデコーダを構築します。
個別の潜在因子のマッピング チャネルに独立性制約を課すことで、表現の独立性を向上させます。
合成データセットと現実世界のデータセットの両方に対する実証実験により、いくつかの最先端のベースラインと比較して、私たちが提案した方法の優位性が実証されました。

要約(オリジナル)

The (variational) graph auto-encoder is widely used to learn representations for graph-structured data. However, the formation of real-world graphs is a complicated and heterogeneous process influenced by latent factors. Existing encoders are fundamentally holistic, neglecting the entanglement of latent factors. This reduces the effectiveness of graph analysis tasks, while also making it more difficult to explain the learned representations. As a result, learning disentangled graph representations with the (variational) graph auto-encoder poses significant challenges and remains largely unexplored in the current research. In this paper, we introduce the Disentangled Graph Auto-Encoder (DGA) and the Disentangled Variational Graph Auto-Encoder (DVGA) to learn disentangled representations. Specifically, we first design a disentangled graph convolutional network with multi-channel message-passing layers to serve as the encoder. This allows each channel to aggregate information about each latent factor. The disentangled variational graph auto-encoder’s expressive capability is then enhanced by applying a component-wise flow to each channel. In addition, we construct a factor-wise decoder that takes into account the characteristics of disentangled representations. We improve the independence of representations by imposing independence constraints on the mapping channels for distinct latent factors. Empirical experiments on both synthetic and real-world datasets demonstrate the superiority of our proposed method compared to several state-of-the-art baselines.

arxiv情報

著者 Di Fan,Chuanhou Gao
発行日 2024-07-16 16:07:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク