Learning From Simplicial Data Based on Random Walks and 1D Convolutions

要約

グラフベースのディープラーニング手法の計算表現力とモデルの柔軟性の限界に端を発し、近年、ハイパーグラフやシンプリスティック複素数のような高次の位相領域上で動作する計算モデルへの関心が急増している。これらのモデルの表現力の向上は、確かに分類性能の向上や、基礎となるシステムをより忠実に表現することにつながるが、これらの高次モデルの計算コストは劇的に増大する可能性がある。このため、ここではランダムウォークと高速1次元畳み込み(SCRaWl)に基づく単純化複雑ニューラルネットワーク学習アーキテクチャを探求する。このアーキテクチャでは、高次の関係を考慮しつつ、考慮するランダムウォークの長さと数を変えることで、計算コストの増加を調整することができる。重要なことは、ランダムウォークベースの設計により、提案アーキテクチャの表現力は、既存のメッセージパッシング型単純ニューラルネットワークとは比較にならないことが証明できることである。SCRaWlを実世界のデータセットで経験的に評価し、他の単純ニューラルネットワークを凌駕することを示す。

要約(オリジナル)

Triggered by limitations of graph-based deep learning methods in terms of computational expressivity and model flexibility, recent years have seen a surge of interest in computational models that operate on higher-order topological domains such as hypergraphs and simplicial complexes. While the increased expressivity of these models can indeed lead to a better classification performance and a more faithful representation of the underlying system, the computational cost of these higher-order models can increase dramatically. To this end, we here explore a simplicial complex neural network learning architecture based on random walks and fast 1D convolutions (SCRaWl), in which we can adjust the increase in computational cost by varying the length and number of random walks considered while accounting for higher-order relationships. Importantly, due to the random walk-based design, the expressivity of the proposed architecture is provably incomparable to that of existing message-passing simplicial neural networks. We empirically evaluate SCRaWl on real-world datasets and show that it outperforms other simplicial neural networks.

arxiv情報

著者 Florian Frantzen,Michael T. Schaub
発行日 2024-04-04 13:27:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク