Topological Deep Learning: Going Beyond Graph Data

要約

タイトル:トポロジカルディープラーニング:グラフデータを超えて

要約:
– トポロジカルディープラーニングは、シンプリシャルコンプレックス、セルコンプレックス、ハイパーグラフなどのトポロジカルドメインを持つデータのためのディープラーニングモデルの開発を扱う急速に成長している分野。
– この論文では、一般的なトポロジカルドメインを含む豊富なデータ構造に基づいた統合的なディープラーニングフレームワークを紹介する。
– まず、グラフを一般化したコンビナトリックコンプレックスの新しいタイプを紹介する。コンビナトリックコンプレックスは、ハイパーグラフのように関係セットに制約がなく、シンプリシャルコンプレックスおよびセルコンプレックスで見つけられるような階層的な高次関係の構築を許可するため、ハイパーグラフとセルコンプレックスの有用な特性を一般化結合する。
– 次に、コンビナトリックコンプレックスとその豊富なコンビナトリックおよび代数的構造に基づき、注目を集めるCCNN(結合複合神経ネットワーク)に焦点を当てた一般的なメッセージパッシングCCNNクラスを開発する。
– 第三に、メッシュ形状分析およびグラフ学習に関連するタスクでCCNNの性能を評価する。
– 実験結果は、高次関係をディープラーニングモデルに組み込むことの利点を示し、CCNNが同じタスクに特化した最先端のディープラーニングモデルと競合する性能を発揮することを示している。

要約(オリジナル)

Topological deep learning is a rapidly growing field that pertains to the development of deep learning models for data supported on topological domains such as simplicial complexes, cell complexes, and hypergraphs, which generalize many domains encountered in scientific computations. In this paper, we present a unifying deep learning framework built upon a richer data structure that includes widely adopted topological domains. Specifically, we first introduce combinatorial complexes, a novel type of topological domain. Combinatorial complexes can be seen as generalizations of graphs that maintain certain desirable properties. Similar to hypergraphs, combinatorial complexes impose no constraints on the set of relations. In addition, combinatorial complexes permit the construction of hierarchical higher-order relations, analogous to those found in simplicial and cell complexes. Thus, combinatorial complexes generalize and combine useful traits of both hypergraphs and cell complexes, which have emerged as two promising abstractions that facilitate the generalization of graph neural networks to topological spaces. Second, building upon combinatorial complexes and their rich combinatorial and algebraic structure, we develop a general class of message-passing combinatorial complex neural networks (CCNNs), focusing primarily on attention-based CCNNs. We characterize permutation and orientation equivariances of CCNNs, and discuss pooling and unpooling operations within CCNNs in detail. Third, we evaluate the performance of CCNNs on tasks related to mesh shape analysis and graph learning. Our experiments demonstrate that CCNNs have competitive performance as compared to state-of-the-art deep learning models specifically tailored to the same tasks. Our findings demonstrate the advantages of incorporating higher-order relations into deep learning models in different applications.

arxiv情報

著者 Mustafa Hajij,Ghada Zamzmi,Theodore Papamarkou,Nina Miolane,Aldo Guzmán-Sáenz,Karthikeyan Natesan Ramamurthy,Tolga Birdal,Tamal K. Dey,Soham Mukherjee,Shreyas N. Samaga,Neal Livesay,Robin Walters,Paul Rosen,Michael T. Schaub
発行日 2023-04-21 15:58:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, cs.SI, math.AT, stat.ML パーマリンク