Poincaré ResNet

要約

このペーパーでは、双曲空間のポアンカレ ボール モデルで完全に動作するエンド ツー エンドの残差ネットワークを紹介します。
双曲線学習は最近、視覚的理解の大きな可能性を示していますが、現在のところ、ディープ ネットワークの最後から 2 番目のレイヤーでのみ実行されます。
すべての視覚的表現は、標準のユークリッド ネットワークを通じて引き続き学習されます。
この論文では、視覚データの双曲線表現をピクセルレベルから直接学習する方法を調査します。
Poincar\’e ResNet は、Poincar\’e 2D 畳み込みから Poincar\’e 残差接続までの有名な Residual Network の双曲線版です。
畳み込みネットワークを完全に双曲線空間でトレーニングするための 3 つの障害を特定し、それぞれの解決策を提案します。
多くのレイヤーで規範を維持するアイデンティティベースの初期化を提供します。
(ii) 残差ネットワークはバッチ正規化に大きく依存しており、これには双曲線空間での高価なフレシェット平均計算が伴います。
ポアンカレ中間点バッチ正規化を、より高速で同等に効果的な代替手段として導入します。
(iii) ポアンカレ層の中間操作が多いため、深層学習ライブラリの計算グラフが破綻し、深層双曲線ネットワークでトレーニングする能力が制限されることが最終的にわかりました。
管理しやすい計算グラフを維持するために、核となる双曲線演算の後方導出を手動で提供します。

要約(オリジナル)

This paper introduces an end-to-end residual network that operates entirely on the Poincar\’e ball model of hyperbolic space. Hyperbolic learning has recently shown great potential for visual understanding, but is currently only performed in the penultimate layer(s) of deep networks. All visual representations are still learned through standard Euclidean networks. In this paper we investigate how to learn hyperbolic representations of visual data directly from the pixel-level. We propose Poincar\’e ResNet, a hyperbolic counterpart of the celebrated residual network, starting from Poincar\’e 2D convolutions up to Poincar\’e residual connections. We identify three roadblocks for training convolutional networks entirely in hyperbolic space and propose a solution for each: (i) Current hyperbolic network initializations collapse to the origin, limiting their applicability in deeper networks. We provide an identity-based initialization that preserves norms over many layers. (ii) Residual networks rely heavily on batch normalization, which comes with expensive Fr\’echet mean calculations in hyperbolic space. We introduce Poincar\’e midpoint batch normalization as a faster and equally effective alternative. (iii) Due to the many intermediate operations in Poincar\’e layers, we lastly find that the computation graphs of deep learning libraries blow up, limiting our ability to train on deep hyperbolic networks. We provide manual backward derivations of core hyperbolic operations to maintain manageable computation graphs.

arxiv情報

著者 Max van Spengler,Erwin Berkhout,Pascal Mettes
発行日 2023-03-24 14:37:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク