cond-mat.dis-nn」カテゴリーアーカイブ

Absorbing Phase Transitions in Artificial Deep Neural Networks

要約 無限に広がるニューラル ネットワークの動作の理論的理解は、有名な平均場理論 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, stat.ML | Absorbing Phase Transitions in Artificial Deep Neural Networks はコメントを受け付けていません

Machine learning at the mesoscale: a computation-dissipation bottleneck

要約 物理システムにおける情報処理のコストには、パフォーマンスとエネルギー消費の … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Machine learning at the mesoscale: a computation-dissipation bottleneck はコメントを受け付けていません

Memristive Reservoirs Learn to Learn

要約 メムリスティブ リザーバーは、ナノワイヤー ネットワークとして知られる新し … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI | Memristive Reservoirs Learn to Learn はコメントを受け付けていません

The RL Perceptron: Generalisation Dynamics of Policy Learning in High Dimensions

要約 強化学習 (RL) アルゴリズムは、さまざまな領域で変革をもたらすことが証 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | The RL Perceptron: Generalisation Dynamics of Policy Learning in High Dimensions はコメントを受け付けていません

Homophily modulates double descent generalization in graph convolution networks

要約 グラフ ニューラル ネットワークは、代謝、交通、ソーシャル ネットワークな … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Homophily modulates double descent generalization in graph convolution networks はコメントを受け付けていません

Unsupervised hierarchical clustering using the learning dynamics of RBMs

要約 現実世界のデータセットは多くの場合複雑で、ある程度階層的になっており、デー … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Unsupervised hierarchical clustering using the learning dynamics of RBMs はコメントを受け付けていません

Correlated Noise in Epoch-Based Stochastic Gradient Descent: Implications for Weight Variances

要約 確率的勾配降下法 (SGD) はニューラル ネットワーク最適化の基礎となっ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Correlated Noise in Epoch-Based Stochastic Gradient Descent: Implications for Weight Variances はコメントを受け付けていません

A fermion neural network with efficient optimization and quantum applicability

要約 古典的な人工ニューラル ネットワークは、機械学習アプリケーションで広範な成 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, quant-ph | A fermion neural network with efficient optimization and quantum applicability はコメントを受け付けていません

Stochastic Gradient Descent-Induced Drift of Representation in a Two-Layer Neural Network

要約 表現ドリフトとは、安定したタスクのパフォーマンスを伴う神経活性化の時間の経 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Stochastic Gradient Descent-Induced Drift of Representation in a Two-Layer Neural Network はコメントを受け付けていません

Seeing is Believing: Brain-Inspired Modular Training for Mechanistic Interpretability

要約 ニューラル ネットワークをよりモジュール化して解釈可能にする方法である B … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, cs.NE, math.RT, q-bio.NC | Seeing is Believing: Brain-Inspired Modular Training for Mechanistic Interpretability はコメントを受け付けていません