Symmetric Single Index Learning

要約

勾配に基づく手法で証明可能な学習が可能なニューラル・アーキテクチャはほとんどない。このモデルでは、未知の線形射影と未知のスカラーリンク関数を合成することで、ラベルが生成される。SGDによるこのモデルの学習は比較的よく理解されており、リンク関数のいわゆる情報指数が多項式のサンプル複雑度を支配している。しかし、この解析をより深い、あるいはより複雑なアーキテクチャに拡張することは、依然として困難である。 本研究では、対称型ニューラルネットワークの設定における単一インデックス学習について考察する。活性化に関する解析的仮定とリンク関数に関する最大次数の仮定の下で、我々は勾配フローが、べき乗和多項式の特徴空間における有限支持ベクトルとして表される隠れ植え方向を回復することを証明する。学習の効率を制御する、我々の設定に適合した情報指数の概念を特徴付ける。

要約(オリジナル)

Few neural architectures lend themselves to provable learning with gradient based methods. One popular model is the single-index model, in which labels are produced by composing an unknown linear projection with a possibly unknown scalar link function. Learning this model with SGD is relatively well-understood, whereby the so-called information exponent of the link function governs a polynomial sample complexity rate. However, extending this analysis to deeper or more complicated architectures remains challenging. In this work, we consider single index learning in the setting of symmetric neural networks. Under analytic assumptions on the activation and maximum degree assumptions on the link function, we prove that gradient flow recovers the hidden planted direction, represented as a finitely supported vector in the feature space of power sum polynomials. We characterize a notion of information exponent adapted to our setting that controls the efficiency of learning.

arxiv情報

著者 Aaron Zweig,Joan Bruna
発行日 2023-10-03 14:59:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク