-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2025年2月
MotifBench: A standardized protein design benchmark for motif-scaffolding problems
要約 モチーフスコホルディングの問題は、計算タンパク質設計の中心的なタスクです。 … 続きを読む
Playing Hex and Counter Wargames using Reinforcement Learning and Recurrent Neural Networks
要約 HEXとカウンターウォーゲームは、複雑な戦略的意思決定を必要とする実際の軍 … 続きを読む
Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis
要約 コード生成の最近の進歩により、PythonやC ++などの汎用プログラミン … 続きを読む
Bayesian Comparisons Between Representations
要約 どのニューラルネットワークが類似しているかは、機械学習と神経科学の両方にと … 続きを読む
Improving Probabilistic Diffusion Models With Optimal Diagonal Covariance Matching
要約 確率的拡散モデルは、さまざまなドメインで非常に効果的になりました。 通常、 … 続きを読む
カテゴリー: cs.LG
Improving Probabilistic Diffusion Models With Optimal Diagonal Covariance Matching はコメントを受け付けていません
Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach
要約 透かしは、人間が作成したテキストとAIに生成されたテキストを区別するための … 続きを読む
Dataset Distillation via Knowledge Distillation: Towards Efficient Self-Supervised Pre-Training of Deep Networks
要約 データセット蒸留(DD)は、限られた量のメモリと計算で深いネットワークを効 … 続きを読む
カテゴリー: cs.LG
Dataset Distillation via Knowledge Distillation: Towards Efficient Self-Supervised Pre-Training of Deep Networks はコメントを受け付けていません
Robotic Table Tennis: A Case Study into a High Speed Learning System
要約 私たちは、以前の研究では、人間と何百もの卓球集会が可能であり、ボールを望ま … 続きを読む
The Computational Advantage of Depth: Learning High-Dimensional Hierarchical Functions with Gradient Descent
要約 浅いモデルと比較して勾配降下(GD)によって訓練された深いニューラルネット … 続きを読む
Where’s the Bug? Attention Probing for Scalable Fault Localization
要約 コード関連のタスクでは、大規模な言語モデル(LLM)がますます能力があるに … 続きを読む