Implicit Neural Convolutional Kernels for Steerable CNNs

要約

操縦可能な畳み込みニューラル ネットワーク (CNN) は、反射や回転など、原点保存グループ $G$ に属する平行移動およびその他の変換と同等のニューラル ネットワークを構築するための一般的なフレームワークを提供します。
それらは、カーネル空間に課せられたグループ固有の等分散制約を分析的に解くことによって得られた $G$ 操作可能なカーネルを使用した標準的な畳み込みに依存しています。
ソリューションは特定のグループ $G$ に合わせて調整されるため、カーネル基底の実装は他の対称変換には一般化されず、グループ同変モデルの開発が複雑になります。
多層パーセプトロン (MLP) を介した暗黙的なニューラル表現を使用して、$G$ 操作可能なカーネルをパラメーター化することを提案します。
結果として得られるフレームワークは、Steerable CNN を実装するためのシンプルで柔軟な方法を提供し、$G$-equivariant MLP を構築できる任意のグループ $G$ に一般化します。
この方法をポイント クラウド (ModelNet-40) と分子データ (QM9) に適用し、標準の Steerable CNN と比較してパフォーマンスが大幅に向上することを示します。

要約(オリジナル)

Steerable convolutional neural networks (CNNs) provide a general framework for building neural networks equivariant to translations and other transformations belonging to an origin-preserving group $G$, such as reflections and rotations. They rely on standard convolutions with $G$-steerable kernels obtained by analytically solving the group-specific equivariance constraint imposed onto the kernel space. As the solution is tailored to a particular group $G$, the implementation of a kernel basis does not generalize to other symmetry transformations, which complicates the development of group equivariant models. We propose using implicit neural representation via multi-layer perceptrons (MLPs) to parameterize $G$-steerable kernels. The resulting framework offers a simple and flexible way to implement Steerable CNNs and generalizes to any group $G$ for which a $G$-equivariant MLP can be built. We apply our method to point cloud (ModelNet-40) and molecular data (QM9) and demonstrate a significant improvement in performance compared to standard Steerable CNNs.

arxiv情報

著者 Maksim Zhdanov,Nico Hoffmann,Gabriele Cesa
発行日 2022-12-12 18:10:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク