Tensorized Hypergraph Neural Networks

要約

ハイパーグラフ ニューラル ネットワーク (HGNN) は、さまざまなドメインで優れたパフォーマンスを発揮するため、最近魅力的になり、大きな注目を集めています。
ただし、既存の HGNN のほとんどは、ハイパーグラフ接続パターンの一次近似に依存しており、重要な高次情報が無視されています。
この問題に対処するために、新しい隣接テンソルベースの \textbf{T}ensorized \textbf{H}ypergraph \textbf{N}eural \textbf{N} ネットワーク (THNN) を提案します。
THNN は、高次外積特徴メッセージ パッシングによる忠実なハイパーグラフ モデリング フレームワークであり、隣接行列ベースのグラフ ニューラル ネットワークの自然なテンソル拡張です。
提案された THNN は高次多項式回帰スキームと同等であり、これにより THNN は均一なハイパーグラフから高次の情報を効率的に抽出することができます。
さらに、高次の外積特徴を直接処理する指数関数的な複雑さを考慮して、部分対称 CP 分解アプローチを使用してモデルの複雑さを線形程度に軽減することを提案します。
さらに、実世界のアプリケーションで一般的に見られる不均一なハイパーグラフに対する手法の 2 つのシンプルかつ効果的な拡張を提案します。
広く使用されている 2 つの {3D 視覚オブジェクト分類用のハイパーグラフ データセット} に関する実験の結果は、モデルの有望なパフォーマンスを示しています。

要約(オリジナル)

Hypergraph neural networks (HGNN) have recently become attractive and received significant attention due to their excellent performance in various domains. However, most existing HGNNs rely on first-order approximations of hypergraph connectivity patterns, which ignores important high-order information. To address this issue, we propose a novel adjacency-tensor-based \textbf{T}ensorized \textbf{H}ypergraph \textbf{N}eural \textbf{N}etwork (THNN). THNN is a faithful hypergraph modeling framework through high-order outer product feature message passing and is a natural tensor extension of the adjacency-matrix-based graph neural networks. The proposed THNN is equivalent to a high-order polynomial regression scheme, which enables THNN with the ability to efficiently extract high-order information from uniform hypergraphs. Moreover, in consideration of the exponential complexity of directly processing high-order outer product features, we propose using a partially symmetric CP decomposition approach to reduce model complexity to a linear degree. Additionally, we propose two simple yet effective extensions of our method for non-uniform hypergraphs commonly found in real-world applications. Results from experiments on two widely used {hypergraph datasets for 3-D visual object classification} show the model’s promising performance.

arxiv情報

著者 Maolin Wang,Yaoming Zhen,Yu Pan,Yao Zhao,Chenyi Zhuang,Zenglin Xu,Ruocheng Guo,Xiangyu Zhao
発行日 2024-01-10 10:03:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク