要約
この拡張アブストラクトでは、ハイパーグラフ ニューラル ネットワーク (HyperGNN) の表現力、学習、および (構造的な) 一般化を分析するためのフレームワークについて説明します。
具体的には、HyperGNN が有限のデータセットから学習し、構造的に一般化して任意の入力サイズの推論問題をグラフ化する方法に焦点を当てます。
私たちの最初の貢献は、HyperGNN の表現力、つまり、HyperGNN が実現できる一連の機能の詳細な分析です。
私たちの結果は、深さやエッジのアリティなどのさまざまなハイパーパラメーターの観点から定義された、解決できる問題の階層です。
次に、これらのニューラル ネットワークの学習特性を分析します。特に、小さなグラフの有限セットでトレーニングし、より大きなグラフに一般化する方法に焦点を当てます。これを構造的一般化と呼びます。
私たちの理論的結果は、経験的結果によってさらに裏付けられています。
要約(オリジナル)
This extended abstract describes a framework for analyzing the expressiveness, learning, and (structural) generalization of hypergraph neural networks (HyperGNNs). Specifically, we focus on how HyperGNNs can learn from finite datasets and generalize structurally to graph reasoning problems of arbitrary input sizes. Our first contribution is a fine-grained analysis of the expressiveness of HyperGNNs, that is, the set of functions that they can realize. Our result is a hierarchy of problems they can solve, defined in terms of various hyperparameters such as depths and edge arities. Next, we analyze the learning properties of these neural networks, especially focusing on how they can be trained on a finite set of small graphs and generalize to larger graphs, which we term structural generalization. Our theoretical results are further supported by the empirical results.
arxiv情報
著者 | Zhezheng Luo,Jiayuan Mao,Joshua B. Tenenbaum,Leslie Pack Kaelbling |
発行日 | 2023-03-09 18:42:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google