-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
投稿者「jarxiv」のアーカイブ
Synthesizing Diverse Network Flow Datasets with Scalable Dynamic Multigraph Generation
要約 プライバシー、セキュリティ、および計算上の制約のため、実際のネットワークデ … 続きを読む
MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering
要約 Iterative Machine Learning Engineerin … 続きを読む
カテゴリー: cs.LG
MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering はコメントを受け付けていません
Relative Overfitting and Accept-Reject Framework
要約 現在、大規模な言語モデル(LLMS)のスケーリング法則は、課題とボトルネッ … 続きを読む
カテゴリー: cs.LG
Relative Overfitting and Accept-Reject Framework はコメントを受け付けていません
Analytic theory of dropout regularization
要約 ドロップアウトは、過剰適合を緩和するために人工ニューラルネットワークのトレ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG, stat.ML
Analytic theory of dropout regularization はコメントを受け付けていません
A Theoretical Framework for Explaining Reinforcement Learning with Shapley Values
要約 強化学習エージェントは超人的なパフォーマンスを達成できますが、彼らの決定は … 続きを読む
カテゴリー: cs.LG
A Theoretical Framework for Explaining Reinforcement Learning with Shapley Values はコメントを受け付けていません
Automatically Differentiable Model Updating (ADiMU): conventional, hybrid, and neural network material model discovery including history-dependency
要約 フルフィールドの変位とグローバルな力データ(グローバル、間接発見)またはひ … 続きを読む
カテゴリー: cs.LG, cs.NA, math.NA, physics.comp-ph
Automatically Differentiable Model Updating (ADiMU): conventional, hybrid, and neural network material model discovery including history-dependency はコメントを受け付けていません
Understanding Stragglers in Large Model Training Using What-if Analysis
要約 大規模な言語モデル(LLM)トレーニングは、今日最も要求の厳しい分散計算の … 続きを読む
Semantic Retention and Extreme Compression in LLMs: Can We Have Both?
要約 大規模な言語モデル(LLM)の展開における指数関数的な成長により、計算コス … 続きを読む
AttentionInfluence: Adopting Attention Head Influence for Weak-to-Strong Pretraining Data Selection
要約 最近、LLMSの複雑な推論能力を向上させるために、推論集約型の事前削除デー … 続きを読む
カテゴリー: cs.CL
AttentionInfluence: Adopting Attention Head Influence for Weak-to-Strong Pretraining Data Selection はコメントを受け付けていません
A Syntax-Injected Approach for Faster and More Accurate Sentiment Analysis
要約 センチメント分析(SA)は、自然言語処理(NLP)の重要な側面であり、テキ … 続きを読む
カテゴリー: cs.CL
A Syntax-Injected Approach for Faster and More Accurate Sentiment Analysis はコメントを受け付けていません