68Q32」カテゴリーアーカイブ

Agnostic Learning under Targeted Poisoning: Optimal Rates and the Role of Randomness

要約 我々は、特定のテストポイントで失敗を引き起こすことを目的として、訓練例の$ … 続きを読む

カテゴリー: 68Q32, cs.LG, I.2.6, math.PR | コメントする

Binarized Neural Networks Converge Toward Algorithmic Simplicity: Empirical Support for the Learning-as-Compression Hypothesis

要約 ニューラルネットワークの情報複雑さの理解と制御は、機械学習の中心的な課題で … 続きを読む

カテゴリー: 68Q30, 68Q32, 68T07, cs.AI, cs.IT, cs.LG, F.1.1, math.IT | コメントする

Federated Domain Generalization with Data-free On-server Matching Gradient

要約 ドメイン一般化(DG)は、複数の既知のソースドメインから、未知のターゲット … 続きを読む

カテゴリー: 68Q32, cs.AI, cs.DC, cs.LG, cs.MA, I.2.11 | コメントする

Batched Nonparametric Bandits via k-Nearest Neighbor UCB

要約 バッチ付きノンパラメトリックコンテキストバンディットでシーケンシャルな意思 … 続きを読む

カテゴリー: 62G08, 62L05, 68Q32, 68T05, cs.LG, F.2.2, math.ST, stat.ME, stat.ML, stat.TH | Batched Nonparametric Bandits via k-Nearest Neighbor UCB はコメントを受け付けていません

Faster, Cheaper, Better: Multi-Objective Hyperparameter Optimization for LLM and RAG Systems

要約 検索拡張生成(RAG)は、大規模な言語モデル(LLM)システムを改善するた … 続きを読む

カテゴリー: 62P30, 68Q32, 68T20, 90C29, cs.AI, cs.CL, cs.LG, G.1.6 | Faster, Cheaper, Better: Multi-Objective Hyperparameter Optimization for LLM and RAG Systems はコメントを受け付けていません

Asymptotic Optimism of Random-Design Linear and Kernel Regression Models

要約 私たちは、ランダム設計下で線形回帰モデルの閉じた漸近楽観主義を導き出し、そ … 続きを読む

カテゴリー: 68Q32, 68T05, cs.LG, math.ST, stat.ML, stat.TH | Asymptotic Optimism of Random-Design Linear and Kernel Regression Models はコメントを受け付けていません

The global convergence time of stochastic gradient descent in non-convex landscapes: Sharp estimates via large deviations

要約 このホワイトペーパーでは、確率的勾配降下(SGD)が一般的な非凸型損失関数 … 続きを読む

カテゴリー: (Primary), 60F10, 68Q32, 90C26, 90C30, cs.LG, math.OC | The global convergence time of stochastic gradient descent in non-convex landscapes: Sharp estimates via large deviations はコメントを受け付けていません

Make Optimization Once and for All with Fine-grained Guidance

要約 最適化(L2O)を学習することで、統合されたニューラルネットワークを使用し … 続きを読む

カテゴリー: 68Q32, cs.LG, I.2 | Make Optimization Once and for All with Fine-grained Guidance はコメントを受け付けていません

From Denoising Score Matching to Langevin Sampling: A Fine-Grained Error Analysis in the Gaussian Setting

要約 個別のサンプルを介してのみアクセスできる未知の分布からのサンプリングは、生 … 続きを読む

カテゴリー: 68Q32, cs.LG, math.OC | From Denoising Score Matching to Langevin Sampling: A Fine-Grained Error Analysis in the Gaussian Setting はコメントを受け付けていません

Learning Decentralized Swarms Using Rotation Equivariant Graph Neural Networks

要約 集中制御なしで集合的な目標を最適化するエージェントのオーケストレーションは … 続きを読む

カテゴリー: (Primary), 68Q32, 68T42, cs.LG, cs.RO | Learning Decentralized Swarms Using Rotation Equivariant Graph Neural Networks はコメントを受け付けていません