Learning Deep O($n$)-Equivariant Hyperspheres

要約

この論文は、超球面と正規の $n$-simplex を利用して、直交変換の下で等変な (深い) $n$D 特徴を学習するアプローチを示します。
私たちの主な貢献は理論的であり、幾何学的変換下での等変性や不変性など、幾何学的な深層学習における主要な課題に取り組んでいます。
すなわち、最近開発された操作可能な 3D 球面ニューロンの理論 — 球面決定面を持つニューロンに基づく SO(3) 等変フィルタ バンク — を、前記ニューロンを $n$D まで拡張することで強化し、これを深等変超球と呼びます。
多層構造を可能にします。
$n$D の合成データと実世界のデータを使用して、理論的な貢献を実験的に検証し、1 つのケースを除くすべてのケースで、私たちのアプローチが小規模なトレーニング データセットのベースラインよりも優れていることを発見しました。

要約(オリジナル)

This paper presents an approach to learning (deep) $n$D features equivariant under orthogonal transformations, utilizing hyperspheres and regular $n$-simplexes. Our main contributions are theoretical and tackle major challenges in geometric deep learning such as equivariance and invariance under geometric transformations. Namely, we enrich the recently developed theory of steerable 3D spherical neurons — SO(3)-equivariant filter banks based on neurons with spherical decision surfaces — by extending said neurons to $n$D, which we call deep equivariant hyperspheres, and enabling their multi-layer construction. Using synthetic and real-world data in $n$D, we experimentally verify our theoretical contributions and find that our approach is superior to the baselines for small training data sets in all but one case.

arxiv情報

著者 Pavlo Melnyk,Michael Felsberg,Mårten Wadenbäck,Andreas Robinson,Cuong Le
発行日 2023-09-29 16:52:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク