投稿者「jarxiv」のアーカイブ

Optimization-Free Diffusion Model — A Perturbation Theory Approach

要約 拡散モデルは、生成モデリングの強力なフレームワークとして浮上しており、通常 … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA | Optimization-Free Diffusion Model — A Perturbation Theory Approach はコメントを受け付けていません

How does Transformer Learn Implicit Reasoning?

要約 最近の研究では、大規模な言語モデル(LLM)が暗黙的にマルチホップの推論を … 続きを読む

カテゴリー: cs.LG | How does Transformer Learn Implicit Reasoning? はコメントを受け付けていません

Bayesian Perspective on Memorization and Reconstruction

要約 データの再構築の概念に関する新しいベイジアンの視点を紹介し、この視点を活用 … 続きを読む

カテゴリー: cs.CR, cs.LG | Bayesian Perspective on Memorization and Reconstruction はコメントを受け付けていません

AMBER: Adaptive Mesh Generation by Iterative Mesh Resolution Prediction

要約 基礎となるメッシュの解像度で有限要素法(FEM)スケールを使用して、複雑な … 続きを読む

カテゴリー: cs.CG, cs.LG | AMBER: Adaptive Mesh Generation by Iterative Mesh Resolution Prediction はコメントを受け付けていません

Bayesian Optimization from Human Feedback: Near-Optimal Regret Bounds

要約 優先順位ベースのフィードバックを備えたBayesian Optimizat … 続きを読む

カテゴリー: cs.LG | Bayesian Optimization from Human Feedback: Near-Optimal Regret Bounds はコメントを受け付けていません

Understanding Mode Connectivity via Parameter Space Symmetry

要約 ニューラルネットワークの最小値は、列車とテストの損失がほぼ一定のままである … 続きを読む

カテゴリー: cs.LG | Understanding Mode Connectivity via Parameter Space Symmetry はコメントを受け付けていません

Learning Compositional Functions with Transformers from Easy-to-Hard Data

要約 トランスベースの言語モデルは、さまざまな複雑な推論タスクにわたって印象的な … 続きを読む

カテゴリー: cs.LG | Learning Compositional Functions with Transformers from Easy-to-Hard Data はコメントを受け付けていません

From Individual Experience to Collective Evidence: A Reporting-Based Framework for Identifying Systemic Harms

要約 個人が何らかのシステムとの否定的な相互作用を報告する場合、システムの動作の … 続きを読む

カテゴリー: cs.CY, cs.LG | From Individual Experience to Collective Evidence: A Reporting-Based Framework for Identifying Systemic Harms はコメントを受け付けていません

On the Training Convergence of Transformers for In-Context Classification of Gaussian Mixtures

要約 トランスは、実際にはコンテキスト学習(ICL)の印象的な能力を実証していま … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | On the Training Convergence of Transformers for In-Context Classification of Gaussian Mixtures はコメントを受け付けていません

Computational Algebra with Attention: Transformer Oracles for Border Basis Algorithms

要約 多項式方程式のシステム、特に有限のソリューションのシステムを解くことは、多 … 続きを読む

カテゴリー: cs.LG, cs.SC | Computational Algebra with Attention: Transformer Oracles for Border Basis Algorithms はコメントを受け付けていません