math.PR」カテゴリーアーカイブ

Performance of Rank-One Tensor Approximation on Incomplete Data

要約 ノイズの多い観察の一部の$ \ varepsilon $のみが利用可能な場 … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Performance of Rank-One Tensor Approximation on Incomplete Data はコメントを受け付けていません

Smoothed Distance Kernels for MMDs and Applications in Wasserstein Gradient Flows

要約 負の距離カーネル$ k(x、y):= – \ | x -y \ … 続きを読む

カテゴリー: cs.LG, math.FA, math.PR, stat.ML | Smoothed Distance Kernels for MMDs and Applications in Wasserstein Gradient Flows はコメントを受け付けていません

Free Random Projection for In-Context Reinforcement Learning

要約 明示的な双曲線潜在表現とアーキテクチャによって示されるように、階層的な帰納 … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Free Random Projection for In-Context Reinforcement Learning はコメントを受け付けていません

Dissimilar Batch Decompositions of Random Datasets

要約 より良い学習のために、大きなデータセットは多くの場合、小さなバッチに分割さ … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Dissimilar Batch Decompositions of Random Datasets はコメントを受け付けていません

Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning

要約 大規模な言語モデル(LLMS)での継続的な学習は、壊滅的な忘却を受けやすく … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, G.3, math.PR, stat.ML | Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning はコメントを受け付けていません

Fractal and Regular Geometry of Deep Neural Networks

要約 深さが増加するにつれて、異なる活性化関数の遠足セットの境界体積を調査するこ … 続きを読む

カテゴリー: 60G60, 62B10, 62M45, 68T07, cs.LG, math.PR, stat.ML | Fractal and Regular Geometry of Deep Neural Networks はコメントを受け付けていません

The Transient Cost of Learning in Queueing Systems

要約 キューイングシステムは、通信ネットワーク、ヘルスケア、サービスシステムなど … 続きを読む

カテゴリー: cs.DS, cs.LG, cs.PF, math.PR | The Transient Cost of Learning in Queueing Systems はコメントを受け付けていません

Conditioning Diffusions Using Malliavin Calculus

要約 確率的最適制御や条件付き生成モデリングでは、中心的な計算タスクは、与えられ … 続きを読む

カテゴリー: cs.LG, G.3, math.PR, stat.ML | Conditioning Diffusions Using Malliavin Calculus はコメントを受け付けていません

Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks

要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, math.PR | Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks はコメントを受け付けていません

A stochastic gradient descent algorithm with random search directions

要約 確率的座標降下アルゴリズムは、現在の反復から値でほとんどの座標を修正し、残 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR, stat.ML | A stochastic gradient descent algorithm with random search directions はコメントを受け付けていません