Analysis of (sub-)Riemannian PDE-G-CNNs

要約

タイトル:(サブ)リーマン幾何PDE-G-CNNの分析

要約:
– G-CNNと呼ばれる群同変畳み込みニューラルネットワークは、ジオメトリックディープラーニングにおいて成功を収めている。
– PDEベースのG-CNN(PDE-G-CNN)のフレームワークは、G-CNNを一般化している。
– PDE-G-CNNは、ネットワークの複雑さを同時に減らし、分類性能を向上させ、幾何学的解釈性を提供する。
– PDE-G-CNNの実装は主に、カーネルを用いた線形および形態学的畳み込みから構成される。
– この論文では、以前に提案された形態学的カーネルが正確に近似されていないことを示す。
– これに対処するため、空間の異方性に応じて、サブリーマン近似に頼る必要があると主張する。
– 新しい近似カーネルを提供し、異方性に関係なく機能することを示す。
– 近似カーネルの誤差の推定値がより正確な定理を提供し、すべての近似カーネルが正確なカーネルと同じ反射対称性を持つことを証明する。
– PDE-G-CNNフレームワーク内の複数の近似カーネルの効果的性能をテストし、新しい近似カーネルで改善を観察する。
– PDE-G-CNNは、2つのデータセットにおいてG-CNNおよびCNNと比較可能な性能を持ち、ネットワークの複雑さを大幅に低減することができる。
– さらに、PDE-G-CNNは、形態学的カーネルが神経幾何学からの関連領域に関連しているため、G-CNNよりもより優れた幾何学的解釈性を持つ利点がある。

要約(オリジナル)

Group equivariant convolutional neural networks (G-CNNs) have been successfully applied in geometric deep learning. Typically, G-CNNs have the advantage over CNNs that they do not waste network capacity on training symmetries that should have been hard-coded in the network. The recently introduced framework of PDE-based G-CNNs (PDE-G-CNNs) generalises G-CNNs. PDE-G-CNNs have the core advantages that they simultaneously 1) reduce network complexity, 2) increase classification performance, and 3) provide geometric interpretability. Their implementations primarily consist of linear and morphological convolutions with kernels. In this paper we show that the previously suggested approximative morphological kernels do not always accurately approximate the exact kernels accurately. More specifically, depending on the spatial anisotropy of the Riemannian metric, we argue that one must resort to sub-Riemannian approximations. We solve this problem by providing a new approximative kernel that works regardless of the anisotropy. We provide new theorems with better error estimates of the approximative kernels, and prove that they all carry the same reflectional symmetries as the exact ones. We test the effectiveness of multiple approximative kernels within the PDE-G-CNN framework on two datasets, and observe an improvement with the new approximative kernels. We report that the PDE-G-CNNs again allow for a considerable reduction of network complexity while having comparable or better performance than G-CNNs and CNNs on the two datasets. Moreover, PDE-G-CNNs have the advantage of better geometric interpretability over G-CNNs, as the morphological kernels are related to association fields from neurogeometry.

arxiv情報

著者 Gijs Bellaard,Daan L. J. Bon,Gautam Pai,Bart M. N. Smets,Remco Duits
発行日 2023-04-03 11:40:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, math.DG パーマリンク