要約
空間ネットワークは、そのグラフ トポロジが埋め込まれた空間空間によって制約されるネットワークです。
結合された空間グラフのプロパティを理解することは、空間ネットワークから強力な表現を抽出するために重要です。
したがって、個々の空間表現とネットワーク表現を単に組み合わせただけでは、空間ネットワークの根底にある相互作用メカニズムを明らかにすることはできません。
さらに、既存の空間ネットワーク表現学習方法は、ユークリッド空間に埋め込まれたネットワークのみを考慮することができ、不規則で不均一な非ユークリッド空間によって運ばれる豊富な幾何情報を十分に活用することができません。
この問題に対処するために、この論文では、非ユークリッド多様体空間に埋め込まれた空間ネットワークの表現を学習するための新しい汎用フレームワークを提案します。
具体的には、グラフ トポロジと空間幾何学を組み合わせる新しいメッセージ パッシング ベースのニューラル ネットワークが提案されており、空間幾何学はエッジ上のメッセージとして抽出されます。
私たちは、学習された表現が回転や平行移動などの重要な対称性に対して不変であることが証明され、同時に異なる幾何学的構造を区別する十分な能力を維持することを理論的に保証します。
私たちが提案する手法の強みは、合成データセットと現実世界のデータセットの両方に対する広範な実験を通じて実証されています。
要約(オリジナル)
Spatial networks are networks whose graph topology is constrained by their embedded spatial space. Understanding the coupled spatial-graph properties is crucial for extracting powerful representations from spatial networks. Therefore, merely combining individual spatial and network representations cannot reveal the underlying interaction mechanism of spatial networks. Besides, existing spatial network representation learning methods can only consider networks embedded in Euclidean space, and can not well exploit the rich geometric information carried by irregular and non-uniform non-Euclidean space. In order to address this issue, in this paper we propose a novel generic framework to learn the representation of spatial networks that are embedded in non-Euclidean manifold space. Specifically, a novel message-passing-based neural network is proposed to combine graph topology and spatial geometry, where spatial geometry is extracted as messages on the edges. We theoretically guarantee that the learned representations are provably invariant to important symmetries such as rotation or translation, and simultaneously maintain sufficient ability in distinguishing different geometric structures. The strength of our proposed method is demonstrated through extensive experiments on both synthetic and real-world datasets.
arxiv情報
著者 | Zheng Zhang,Sirui Li,Jingcheng Zhou,Junxiang Wang,Abhinav Angirekula,Allen Zhang,Liang Zhao |
発行日 | 2023-12-17 20:21:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google