要約
ハイパーグラフは、2つ以上のエンティティを含む高次の関係を持つデータのモデリングに不可欠であり、機械学習と信号処理で顕著になります。
多くのハイパーグラフニューラルネットワークは、ハイパーグラフ構造を通過するメッセージを活用してノード表現学習を強化し、ハイパーグラフノード分類などのタスクの印象的なパフォーマンスをもたらします。
ただし、これらのメッセージパスベースのモデルは、推論時間における構造的摂動に対する高レイテンシと感度など、過剰滑らかな距離など、いくつかの課題に直面しています。
これらの課題に取り組むために、明示的なメッセージの合格なしにハイパーグラフ構造に関する情報をトレーニング監督に統合する代替アプローチを提案します。
具体的には、ハイパーグラフ構造データの新しい学習フレームワークであるHypergraph-MLPを紹介します。ここでは、学習モデルは、ハイパーグラフの信号滑らかさの概念に基づく損失関数によって監督される率直な多層パーセプトロン(MLP)です。
ハイパーグラフノード分類タスクの実験は、ハイパーグラフMLPが既存のベースラインと比較して競争力のあるパフォーマンスを達成し、推論での構造的摂動に対してかなり速く、より堅牢であることを示しています。
要約(オリジナル)
Hypergraphs are vital in modelling data with higher-order relations containing more than two entities, gaining prominence in machine learning and signal processing. Many hypergraph neural networks leverage message passing over hypergraph structures to enhance node representation learning, yielding impressive performances in tasks like hypergraph node classification. However, these message-passing-based models face several challenges, including oversmoothing as well as high latency and sensitivity to structural perturbations at inference time. To tackle those challenges, we propose an alternative approach where we integrate the information about hypergraph structures into training supervision without explicit message passing, thus also removing the reliance on it at inference. Specifically, we introduce Hypergraph-MLP, a novel learning framework for hypergraph-structured data, where the learning model is a straightforward multilayer perceptron (MLP) supervised by a loss function based on a notion of signal smoothness on hypergraphs. Experiments on hypergraph node classification tasks demonstrate that Hypergraph-MLP achieves competitive performance compared to existing baselines, and is considerably faster and more robust against structural perturbations at inference.
arxiv情報
著者 | Bohan Tang,Siheng Chen,Xiaowen Dong |
発行日 | 2025-03-11 16:07:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google