cs.LG」カテゴリーアーカイブ

Learning Hypergraphs From Signals With Dual Smoothness Prior

要約 観測された信号からハイパーグラフ構造を学習してエンティティ間の固有の高次関 … 続きを読む

カテゴリー: cs.LG, cs.SI, eess.SP, stat.ML | Learning Hypergraphs From Signals With Dual Smoothness Prior はコメントを受け付けていません

A Deterministic Sampling Method via Maximum Mean Discrepancy Flow with Adaptive Kernel

要約 最大平均の不一致(MMD)としても知られるカーネルの不一致を最小化すること … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | A Deterministic Sampling Method via Maximum Mean Discrepancy Flow with Adaptive Kernel はコメントを受け付けていません

Sparsity-Induced Global Matrix Autoregressive Model with Auxiliary Network Data

要約 大規模な国々で経済的および財務的変数を共同でモデル化して予測することは、長 … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Sparsity-Induced Global Matrix Autoregressive Model with Auxiliary Network Data はコメントを受け付けていません

Spectral-factorized Positive-definite Curvature Learning for NN Training

要約 Adam(W)やShampooなどの多くのトレーニング方法は、肯定的な決定 … 続きを読む

カテゴリー: cs.LG, stat.ML | Spectral-factorized Positive-definite Curvature Learning for NN Training はコメントを受け付けていません

Transformers are Provably Optimal In-context Estimators for Wireless Communications

要約 事前に訓練された変圧器は、明示的なモデルの最適化なしに限られたプロンプトの … 続きを読む

カテゴリー: cs.LG, eess.SP | Transformers are Provably Optimal In-context Estimators for Wireless Communications はコメントを受け付けていません

Perfect Recovery for Random Geometric Graph Matching with Shallow Graph Neural Networks

要約 浅いグラフニューラルネットワークを使用して、頂点の特徴情報が存在する場合の … 続きを読む

カテゴリー: cs.IT, cs.LG, cs.SI, math.IT, math.PR, math.ST, stat.ML, stat.TH | Perfect Recovery for Random Geometric Graph Matching with Shallow Graph Neural Networks はコメントを受け付けていません

Hierarchical autoregressive neural networks in three-dimensional statistical system

要約 自己回帰ニューラルネットワーク(ANN)は、いくつかのスピンシステムのモン … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, hep-lat | Hierarchical autoregressive neural networks in three-dimensional statistical system はコメントを受け付けていません

How Does Overparameterization Affect Machine Unlearning of Deep Neural Networks?

要約 マシンの非学習は、ゼロから再訓練せずに特定のトレーニングデータを忘れるよう … 続きを読む

カテゴリー: cs.LG | How Does Overparameterization Affect Machine Unlearning of Deep Neural Networks? はコメントを受け付けていません

Preserving clusters and correlations: a dimensionality reduction method for exceptionally high global structure preservation

要約 保存クラスターと相関(PCC)、新しい次元削減(DR)メソッド競争力のある … 続きを読む

カテゴリー: cs.LG | Preserving clusters and correlations: a dimensionality reduction method for exceptionally high global structure preservation はコメントを受け付けていません

Coefficient-to-Basis Network: A Fine-Tunable Operator Learning Framework for Inverse Problems with Adaptive Discretizations and Theoretical Guarantees

要約 オペレーター学習パラダイム内で逆問題を解決するための新しいフレームワークで … 続きを読む

カテゴリー: cs.LG | Coefficient-to-Basis Network: A Fine-Tunable Operator Learning Framework for Inverse Problems with Adaptive Discretizations and Theoretical Guarantees はコメントを受け付けていません