Data Representations’ Study of Latent Image Manifolds

要約

ディープ ニューラル ネットワークは多くの分野で驚異的な成功を収めていることが実証されていますが、その内部メカニズムはまだよく理解されていません。
この論文では、画像多様体の曲率、つまり主方向における平坦からの多様体の偏差を調査します。
画像分類用の最先端のトレーニング済み畳み込みニューラル ネットワークは、層に沿って特徴的な曲率プロファイルを持っていることがわかりました。つまり、最初の急激な増加、その後の長いプラトー段階、そしてその後のさらなる増加です。
対照的に、この動作は、曲率が平坦になるトレーニングされていないネットワークでは現れません。
また、最後の 2 つの層間の曲率ギャップがネットワークの汎化能力と強い相関関係があることも示します。
さらに、潜在コードの固有の次元が必ずしも曲率を示すわけではないこともわかりました。
最後に、ミックスアップなどの一般的な正則化手法は、他の手法と比較してより平坦な表現を生成することがわかります。
私たちの実験では、さまざまな深層学習アーキテクチャと複数のデータセットにわたって一貫した結果が示されています。
私たちのコードは https://github.com/azencot-group/CRLM で公開されています。

要約(オリジナル)

Deep neural networks have been demonstrated to achieve phenomenal success in many domains, and yet their inner mechanisms are not well understood. In this paper, we investigate the curvature of image manifolds, i.e., the manifold deviation from being flat in its principal directions. We find that state-of-the-art trained convolutional neural networks for image classification have a characteristic curvature profile along layers: an initial steep increase, followed by a long phase of a plateau, and followed by another increase. In contrast, this behavior does not appear in untrained networks in which the curvature flattens. We also show that the curvature gap between the last two layers has a strong correlation with the generalization capability of the network. Moreover, we find that the intrinsic dimension of latent codes is not necessarily indicative of curvature. Finally, we observe that common regularization methods such as mixup yield flatter representations when compared to other methods. Our experiments show consistent results over a variety of deep learning architectures and multiple data sets. Our code is publicly available at https://github.com/azencot-group/CRLM

arxiv情報

著者 Ilya Kaufman,Omri Azencot
発行日 2023-11-16 10:41:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク