cs.LG」カテゴリーアーカイブ

From the Pursuit of Universal AGI Architecture to Systematic Approach to Heterogenous AGI: Addressing Alignment, Energy, & AGI Grand Challenges

要約 人工知能(AI)は、エネルギー壁、アライメントの問題、狭いAIからAGIへ … 続きを読む

カテゴリー: cs.AI, cs.LG | From the Pursuit of Universal AGI Architecture to Systematic Approach to Heterogenous AGI: Addressing Alignment, Energy, & AGI Grand Challenges はコメントを受け付けていません

Inference Acceleration of Autoregressive Normalizing Flows by Selective Jacobi Decoding

要約 フローの正常化は、理論的な厳密さ、分析的対数尤度計算、エンドツーエンドのト … 続きを読む

カテゴリー: cs.AI, cs.LG | Inference Acceleration of Autoregressive Normalizing Flows by Selective Jacobi Decoding はコメントを受け付けていません

PhySense: Principle-Based Physics Reasoning Benchmarking for Large Language Models

要約 大規模な言語モデル(LLM)は急速に進歩しており、物理学の問題を含む複雑な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | PhySense: Principle-Based Physics Reasoning Benchmarking for Large Language Models はコメントを受け付けていません

NdLinear: Don’t Flatten! Building Superior Neural Architectures by Preserving N-D Structure

要約 多くの衝撃的な機械学習タスクには、画像、体積医療スキャン、多変量の時系列な … 続きを読む

カテゴリー: cs.AI, cs.LG | NdLinear: Don’t Flatten! Building Superior Neural Architectures by Preserving N-D Structure はコメントを受け付けていません

‘Give Me BF16 or Give Me Death’? Accuracy-Performance Trade-Offs in LLM Quantization

要約 量子化は、大規模な言語モデル(LLM)の推論を加速するための強力なツールで … 続きを読む

カテゴリー: cs.AI, cs.LG | ‘Give Me BF16 or Give Me Death’? Accuracy-Performance Trade-Offs in LLM Quantization はコメントを受け付けていません

Harnessing Negative Signals: Reinforcement Distillation from Teacher Data for LLM Reasoning

要約 モデルの蒸留の最近の進歩は、高度な推論モデルからのデータ(例:Deepse … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.6 | Harnessing Negative Signals: Reinforcement Distillation from Teacher Data for LLM Reasoning はコメントを受け付けていません

DexMachina: Functional Retargeting for Bimanual Dexterous Manipulation

要約 機能的なリターゲティングの問題を研究しています。人間の手観察デモからオブジ … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO | DexMachina: Functional Retargeting for Bimanual Dexterous Manipulation はコメントを受け付けていません

LlamaDuo: LLMOps Pipeline for Seamless Migration from Service LLMs to Small-Scale Local LLMs

要約 クラウドベースの独自の大規模言語モデル(LLMS)の広範な採用により、運用 … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | LlamaDuo: LLMOps Pipeline for Seamless Migration from Service LLMs to Small-Scale Local LLMs はコメントを受け付けていません

Binarized Neural Networks Converge Toward Algorithmic Simplicity: Empirical Support for the Learning-as-Compression Hypothesis

要約 ニューラルネットワークの情報複雑さの理解と制御は、機械学習の中心的な課題で … 続きを読む

カテゴリー: 68Q30, 68Q32, 68T07, cs.AI, cs.IT, cs.LG, F.1.1, math.IT | Binarized Neural Networks Converge Toward Algorithmic Simplicity: Empirical Support for the Learning-as-Compression Hypothesis はコメントを受け付けていません

Adversarial Pruning: A Survey and Benchmark of Pruning Methods for Adversarial Robustness

要約 最近の研究では、ネットワークのサイズを縮小しながら、敵対的な例、つまり誤分 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Adversarial Pruning: A Survey and Benchmark of Pruning Methods for Adversarial Robustness はコメントを受け付けていません