要約
最近登場したトポロジカル ディープ ラーニング (TDL) 手法は、グラフ表現によって定義されるペアごとの関係や局所的近傍を超えて、高次の相互作用を自然に処理することで、現在のグラフ ニューラル ネットワーク (GNN) を拡張することを目的としています。
この論文では、グラフ上で信号を圧縮するための新しい TDL ベースの方法を提案します。これは 2 つの主なステップで構成されます。まず、$N$ データポイントを $K にクラスタリングすることにより、元の信号に基づいて高次構造の素のセットが推論されます。
\ll N$ コレクション;
次に、トポロジにインスピレーションを得たメッセージ パッシングにより、それらの複数要素セット内の信号の圧縮表現が得られます。
私たちの結果は、私たちのフレームワークが、2 つの実際のインターネット サービス プロバイダー ネットワークのデータセットからの時間リンクベースの信号を圧縮する際に、標準的な GNN とフィードフォワード アーキテクチャの両方を改善し、全体の再構成エラーが $30\%$ から $90\%$ まで改善されたことを示しています。
すべての評価シナリオ — これは、グラフベースのネットワーク構造全体にわたる空間的および時間的相関をより適切に捕捉および活用していることを示唆しています。
要約(オリジナル)
Recently emerged Topological Deep Learning (TDL) methods aim to extend current Graph Neural Networks (GNN) by naturally processing higher-order interactions, going beyond the pairwise relations and local neighborhoods defined by graph representations. In this paper we propose a novel TDL-based method for compressing signals over graphs, consisting in two main steps: first, disjoint sets of higher-order structures are inferred based on the original signal –by clustering $N$ datapoints into $K\ll N$ collections; then, a topological-inspired message passing gets a compressed representation of the signal within those multi-element sets. Our results show that our framework improves both standard GNN and feed-forward architectures in compressing temporal link-based signals from two real-word Internet Service Provider Networks’ datasets –from $30\%$ up to $90\%$ better reconstruction errors across all evaluation scenarios–, suggesting that it better captures and exploits spatial and temporal correlations over the whole graph-based network structure.
arxiv情報
著者 | Guillermo Bernárdez,Lev Telyatnikov,Eduard Alarcón,Albert Cabellos-Aparicio,Pere Barlet-Ros,Pietro Liò |
発行日 | 2023-12-05 13:42:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google