要約
この作業では、接続ラプラシアン演算子の指数に関して、リーマン多様体の接束に対する畳み込み演算を導入します。
この畳み込み演算に基づいて、タンジェントバンドルフィルターとタンジェントバンドルニューラルネットワーク(TNN)を定義します。これらは、タンジェントバンドル信号、つまり多様体上のベクトル場で動作する新しい連続アーキテクチャです。
タンジェント バンドル フィルターは、スカラー多様体フィルター、グラフ フィルター、および標準畳み込みフィルターを連続時間で一般化するスペクトル表現を受け入れます。
次に、空間ドメインと時間ドメインの両方で離散化手順を導入して、TNN を実装可能にし、それらの離散対応物がごく最近導入された層ニューラル ネットワークの新しい原理に基づいた変形であることを示します。
この離散化されたアーキテクチャが基礎となる連続 TNN に収束することを正式に証明します。
最後に、合成データと実際のデータの両方で、さまざまな学習タスクに対する提案されたアーキテクチャの有効性を数値的に評価します。
要約(オリジナル)
In this work we introduce a convolution operation over the tangent bundle of Riemann manifolds in terms of exponentials of the Connection Laplacian operator. We define tangent bundle filters and tangent bundle neural networks (TNNs) based on this convolution operation, which are novel continuous architectures operating on tangent bundle signals, i.e. vector fields over the manifolds. Tangent bundle filters admit a spectral representation that generalizes the ones of scalar manifold filters, graph filters and standard convolutional filters in continuous time. We then introduce a discretization procedure, both in the space and time domains, to make TNNs implementable, showing that their discrete counterpart is a novel principled variant of the very recently introduced sheaf neural networks. We formally prove that this discretized architecture converges to the underlying continuous TNN. Finally, we numerically evaluate the effectiveness of the proposed architecture on various learning tasks, both on synthetic and real data.
arxiv情報
著者 | Claudio Battiloro,Zhiyang Wang,Hans Riess,Paolo Di Lorenzo,Alejandro Ribeiro |
発行日 | 2023-03-20 17:57:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google