stat.ML」カテゴリーアーカイブ

Assumption-free fidelity bounds for hardware noise characterization

要約 量子優位制度では、量子コンピューターは、避けられないハードウェアノイズを推 … 続きを読む

カテゴリー: cs.LG, quant-ph, stat.ML | Assumption-free fidelity bounds for hardware noise characterization はコメントを受け付けていません

Estimation of embedding vectors in high dimensions

要約 埋め込みは、多くの機械学習モデル、特に自然言語処理における基本的な初期機能 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | Estimation of embedding vectors in high dimensions はコメントを受け付けていません

Distributional Autoencoders Know the Score

要約 この作業は、最近導入されたクラスの自動エンコーダー – 分布プ … 続きを読む

カテゴリー: cs.LG, stat.ML | Distributional Autoencoders Know the Score はコメントを受け付けていません

Architecture independent generalization bounds for overparametrized deep ReLU networks

要約 オーバーパラメトリングニューラルネットワークは、オーバーパラメーター化のレ … 続きを読む

カテゴリー: 57R70, 62M45, cs.AI, cs.LG, math.AP, math.OC, stat.ML | Architecture independent generalization bounds for overparametrized deep ReLU networks はコメントを受け付けていません

Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning

要約 大規模な言語モデル(LLMS)での継続的な学習は、壊滅的な忘却を受けやすく … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, G.3, math.PR, stat.ML | Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning はコメントを受け付けていません

Leveraging Axis-Aligned Subspaces for High-Dimensional Bayesian Optimization with Group Testing

要約 Bayesian Optimization(BO)は、高価な断というブラッ … 続きを読む

カテゴリー: cs.LG, stat.ML | Leveraging Axis-Aligned Subspaces for High-Dimensional Bayesian Optimization with Group Testing はコメントを受け付けていません

Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition

要約 サブサンプリングされた差別的なプライベートメカニズムの構成のためのプライバ … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG, stat.ML | Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition はコメントを受け付けていません

Non-negative Tensor Mixture Learning for Discrete Density Estimation

要約 Kullback-Leiblerの発散を最適化する非陰性テンソル分解のため … 続きを読む

カテゴリー: 68T01, cs.LG, I.2.6, stat.ML | Non-negative Tensor Mixture Learning for Discrete Density Estimation はコメントを受け付けていません

Understanding Gradient Orthogonalization for Deep Learning via Non-Euclidean Trust-Region Optimization

要約 マトリックス勾配直交化による最適化は最近、深い神経ネットワークのトレーニン … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Understanding Gradient Orthogonalization for Deep Learning via Non-Euclidean Trust-Region Optimization はコメントを受け付けていません

Variational Online Mirror Descent for Robust Learning in Schrödinger Bridge

要約 Sch \ ‘Odinger Bridge(SB)は、確率的生 … 続きを読む

カテゴリー: cs.LG, stat.ML | Variational Online Mirror Descent for Robust Learning in Schrödinger Bridge はコメントを受け付けていません