Learning Disentangled Representations in Signed Directed Graphs without Social Assumptions

要約

署名付きグラフは、さまざまなドメインの信頼関係や好みを表す複雑なシステムです。
このようなグラフ内のノード表現を学習することは、多くのマイニング タスクにとって重要です。
現実世界の署名された関係は複数の潜在的な要因の影響を受ける可能性がありますが、既存の手法のほとんどは、社会理論に依存し、それらを単純な要因として扱うことにより、署名された関係のモデル化を過度に単純化することがよくあります。
これにより、表現力や、関係を形成するさまざまな要因を捉える能力が制限されます。
この論文では、社会的仮定なしで符号付き有向グラフのもつれの解けたノード表現を学習するための新しい方法である DINES を提案します。
私たちは、各埋め込みを個別の要素に分離する、もつれの解けたフレームワークを採用し、複数の潜在的な要素を捕捉できるようにします。
また、社会理論に依存せず、符号と方向のみに焦点を当てた軽量のグラフ畳み込みも検討します。
さらに、要素間の相関を考慮してエッジの符号を効果的に分類するデコーダを提案します。
もつれの解除をさらに強化するために、自己教師あり因子弁別器をエンコーダーおよびデコーダーと共同でトレーニングします。
実世界の符号付き有向グラフに関する広範な実験を通じて、DINES がもつれの解けたノード表現を効果的に学習し、符号予測タスクにおいて競合他社を大幅に上回るパフォーマンスを示すことを示しました。

要約(オリジナル)

Signed graphs are complex systems that represent trust relationships or preferences in various domains. Learning node representations in such graphs is crucial for many mining tasks. Although real-world signed relationships can be influenced by multiple latent factors, most existing methods often oversimplify the modeling of signed relationships by relying on social theories and treating them as simplistic factors. This limits their expressiveness and their ability to capture the diverse factors that shape these relationships. In this paper, we propose DINES, a novel method for learning disentangled node representations in signed directed graphs without social assumptions. We adopt a disentangled framework that separates each embedding into distinct factors, allowing for capturing multiple latent factors. We also explore lightweight graph convolutions that focus solely on sign and direction, without depending on social theories. Additionally, we propose a decoder that effectively classifies an edge’s sign by considering correlations between the factors. To further enhance disentanglement, we jointly train a self-supervised factor discriminator with our encoder and decoder. Throughout extensive experiments on real-world signed directed graphs, we show that DINES effectively learns disentangled node representations, and significantly outperforms its competitors in the sign prediction task.

arxiv情報

著者 Geonwoo Ko,Jinhong Jung
発行日 2023-07-06 15:45:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SI パーマリンク