月別アーカイブ: 2025年2月

MotifBench: A standardized protein design benchmark for motif-scaffolding problems

要約 モチーフスコホルディングの問題は、計算タンパク質設計の中心的なタスクです。 … 続きを読む

カテゴリー: cs.LG, q-bio.BM | MotifBench: A standardized protein design benchmark for motif-scaffolding problems はコメントを受け付けていません

Playing Hex and Counter Wargames using Reinforcement Learning and Recurrent Neural Networks

要約 HEXとカウンターウォーゲームは、複雑な戦略的意思決定を必要とする実際の軍 … 続きを読む

カテゴリー: cs.LG, I.2.6 | Playing Hex and Counter Wargames using Reinforcement Learning and Recurrent Neural Networks はコメントを受け付けていません

Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis

要約 コード生成の最近の進歩により、PythonやC ++などの汎用プログラミン … 続きを読む

カテゴリー: cs.AR, cs.LG, cs.SE | Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis はコメントを受け付けていません

Bayesian Comparisons Between Representations

要約 どのニューラルネットワークが類似しているかは、機械学習と神経科学の両方にと … 続きを読む

カテゴリー: cs.LG, q-bio.QM | Bayesian Comparisons Between Representations はコメントを受け付けていません

Improving Probabilistic Diffusion Models With Optimal Diagonal Covariance Matching

要約 確率的拡散モデルは、さまざまなドメインで非常に効果的になりました。 通常、 … 続きを読む

カテゴリー: cs.LG | Improving Probabilistic Diffusion Models With Optimal Diagonal Covariance Matching はコメントを受け付けていません

Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach

要約 透かしは、人間が作成したテキストとAIに生成されたテキストを区別するための … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach はコメントを受け付けていません

Dataset Distillation via Knowledge Distillation: Towards Efficient Self-Supervised Pre-Training of Deep Networks

要約 データセット蒸留(DD)は、限られた量のメモリと計算で深いネットワークを効 … 続きを読む

カテゴリー: cs.LG | Dataset Distillation via Knowledge Distillation: Towards Efficient Self-Supervised Pre-Training of Deep Networks はコメントを受け付けていません

Robotic Table Tennis: A Case Study into a High Speed Learning System

要約 私たちは、以前の研究では、人間と何百もの卓球集会が可能であり、ボールを望ま … 続きを読む

カテゴリー: cs.LG, cs.RO | Robotic Table Tennis: A Case Study into a High Speed Learning System はコメントを受け付けていません

The Computational Advantage of Depth: Learning High-Dimensional Hierarchical Functions with Gradient Descent

要約 浅いモデルと比較して勾配降下(GD)によって訓練された深いニューラルネット … 続きを読む

カテゴリー: cs.LG, stat.ML | The Computational Advantage of Depth: Learning High-Dimensional Hierarchical Functions with Gradient Descent はコメントを受け付けていません

Where’s the Bug? Attention Probing for Scalable Fault Localization

要約 コード関連のタスクでは、大規模な言語モデル(LLM)がますます能力があるに … 続きを読む

カテゴリー: cs.LG, cs.SE | Where’s the Bug? Attention Probing for Scalable Fault Localization はコメントを受け付けていません