math.PR」カテゴリーアーカイブ

Transition of $α$-mixing in Random Iterations with Applications in Queuing Theory

要約 統計分析は不完全なままですが、経済的、キューイング理論、および機械学習には … 続きを読む

カテゴリー: 60J05, 60J20, 60K25, 60K37, C.4, cs.AI, math.PR, math.ST, stat.TH | Transition of $α$-mixing in Random Iterations with Applications in Queuing Theory はコメントを受け付けていません

Conformal Prediction Regions are Imprecise Highest Density Regions

要約 最近、CellaとMartinは、Consonanceと呼ばれる仮定の下で … 続きを読む

カテゴリー: (Primary), 15A80, 20M32, 60G25, 62M20, cs.LG, math.PR, stat.ML | Conformal Prediction Regions are Imprecise Highest Density Regions はコメントを受け付けていません

Optimal Transport for $ε$-Contaminated Credal Sets: To the Memory of Sayan Mukherjee

要約 Monge’sとKantorovichの最適な輸送問題の一般化 … 続きを読む

カテゴリー: 49Q22, 60A99, 68T37, cs.LG, math.PR, stat.ML | Optimal Transport for $ε$-Contaminated Credal Sets: To the Memory of Sayan Mukherjee はコメントを受け付けていません

Future Aware Safe Active Learning of Time Varying Systems using Gaussian Processes

要約 エンジニアリングアプリケーションで一般的な安全上の制約を伴う高コストシステ … 続きを読む

カテゴリー: cs.AI, cs.LG, G.3, math.OC, math.PR | Future Aware Safe Active Learning of Time Varying Systems using Gaussian Processes はコメントを受け付けていません

A User’s Guide to Sampling Strategies for Sliced Optimal Transport

要約 このペーパーは、スライスした最適な輸送のためのサンプリング戦略に関するユー … 続きを読む

カテゴリー: cs.LG, math.PR | A User’s Guide to Sampling Strategies for Sliced Optimal Transport はコメントを受け付けていません

Performance of Rank-One Tensor Approximation on Incomplete Data

要約 ノイズの多い観察の一部の$ \ varepsilon $のみが利用可能な場 … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Performance of Rank-One Tensor Approximation on Incomplete Data はコメントを受け付けていません

Smoothed Distance Kernels for MMDs and Applications in Wasserstein Gradient Flows

要約 負の距離カーネル$ k(x、y):= – \ | x -y \ … 続きを読む

カテゴリー: cs.LG, math.FA, math.PR, stat.ML | Smoothed Distance Kernels for MMDs and Applications in Wasserstein Gradient Flows はコメントを受け付けていません

Free Random Projection for In-Context Reinforcement Learning

要約 明示的な双曲線潜在表現とアーキテクチャによって示されるように、階層的な帰納 … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Free Random Projection for In-Context Reinforcement Learning はコメントを受け付けていません

Dissimilar Batch Decompositions of Random Datasets

要約 より良い学習のために、大きなデータセットは多くの場合、小さなバッチに分割さ … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Dissimilar Batch Decompositions of Random Datasets はコメントを受け付けていません

Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning

要約 大規模な言語モデル(LLMS)での継続的な学習は、壊滅的な忘却を受けやすく … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, G.3, math.PR, stat.ML | Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning はコメントを受け付けていません