math.AG」カテゴリーアーカイブ

Learning Gaussian Multi-Index Models with Gradient Flow: Time Complexity and Directional Convergence

要約 この研究は、相関損失を使用して高次元の標準ガウス データのマルチインデック … 続きを読む

カテゴリー: cs.LG, cs.NE, math.AG | Learning Gaussian Multi-Index Models with Gradient Flow: Time Complexity and Directional Convergence はコメントを受け付けていません

Topological obstruction to the training of shallow ReLU neural networks

要約 損失状況の幾何学的形状と単純なニューラル ネットワークの最適化軌道の間の相 … 続きを読む

カテゴリー: (Primary), cs.LG, I.2.6, math.AG, math.AT, secondary | Topological obstruction to the training of shallow ReLU neural networks はコメントを受け付けていません

Geometry of Polynomial Neural Networks

要約 私たちは、単項活性化関数を備えた多項式ニューラル ネットワーク (PNN) … 続きを読む

カテゴリー: 14M12, 14N07, 14P10, 68T07, cs.LG, math.AG, stat.ML | Geometry of Polynomial Neural Networks はコメントを受け付けていません

On Functional Dimension and Persistent Pseudodimension

要約 固定フィードフォワード ReLU ニューラル ネットワーク アーキテクチャ … 続きを読む

カテゴリー: 52B70, 52C35, 57Q99, 57R70, cs.LG, math.AG, math.CO | On Functional Dimension and Persistent Pseudodimension はコメントを受け付けていません

A global approach for the redefinition of higher-order flexibility and rigidity

要約 Connelly と Servatius が挙げたダブルワット機構の有名な … 続きを読む

カテゴリー: cs.RO, math.AG | A global approach for the redefinition of higher-order flexibility and rigidity はコメントを受け付けていません

A global approach for the redefinition of higher-order flexibility and rigidity

要約 Connelly と Servatius が挙げたダブルワット機構の有名な … 続きを読む

カテゴリー: cs.RO, math.AG | A global approach for the redefinition of higher-order flexibility and rigidity はコメントを受け付けていません

Sum of Squares Circuits

要約 正確かつ効率的な推論をサポートする表現力豊かな生成モデルを設計することは、 … 続きを読む

カテゴリー: cs.AI, cs.CC, cs.LG, math.AG | Sum of Squares Circuits はコメントを受け付けていません

Activation thresholds and expressiveness of polynomial neural networks

要約 多項式ニューラル ネットワークはさまざまなアプリケーションに実装されており … 続きを読む

カテゴリー: cs.LG, cs.NE, math.AG, stat.ML | Activation thresholds and expressiveness of polynomial neural networks はコメントを受け付けていません

Linear causal disentanglement via higher-order cumulants

要約 線形因果離散化とは、因果表現学習における最近の手法であり、観測された変数の … 続きを読む

カテゴリー: 13P15, 15A69, 62H22, 62R01, 68Q32, cs.LG, math.AG, math.CO, math.ST, stat.ML, stat.TH | Linear causal disentanglement via higher-order cumulants はコメントを受け付けていません

Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures

要約 この研究では、ハイブリッド畳み込み再帰型ニューラル ネットワーク アーキテ … 続きを読む

カテゴリー: cs.LG, hep-th, math.AG | Deep Learning Calabi-Yau four folds with hybrid and recurrent neural network architectures はコメントを受け付けていません