-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年6月
Fairness-Optimized Synthetic EHR Generation for Arbitrary Downstream Predictive Tasks
要約 医療アプリケーション向けの AI ツールの責任ある設計を確保するためのさま … 続きを読む
カテゴリー: cs.LG
Fairness-Optimized Synthetic EHR Generation for Arbitrary Downstream Predictive Tasks はコメントを受け付けていません
Uncertainty of Joint Neural Contextual Bandit
要約 コンテキスト バンディット学習は、最新の大規模レコメンデーション システム … 続きを読む
カテゴリー: cs.LG
Uncertainty of Joint Neural Contextual Bandit はコメントを受け付けていません
Can We Remove the Square-Root in Adaptive Gradient Methods? A Second-Order Perspective
要約 Adam(W) のような適応勾配オプティマイザーは、トランスフォーマーなど … 続きを読む
Loki: Low-Rank Keys for Efficient Sparse Attention
要約 大規模な言語モデルでの推論は、特に長いシーケンス長が使用される場合、関連す … 続きを読む
カテゴリー: cs.LG
Loki: Low-Rank Keys for Efficient Sparse Attention はコメントを受け付けていません
Robust and highly scalable estimation of directional couplings from time-shifted signals
要約 間接測定からネットワークのノード間の有向結合を推定することは、神経科学、シ … 続きを読む
カテゴリー: cs.LG
Robust and highly scalable estimation of directional couplings from time-shifted signals はコメントを受け付けていません
Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks
要約 大規模な言語モデルは、トレーニング セットには存在しなかったタスクを解決で … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, stat.ML
Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks はコメントを受け付けていません
CantonMT: Cantonese to English NMT Platform with Fine-Tuned Models Using Synthetic Back-Translation Data
要約 低リソース言語のニューラル機械翻訳 (NMT) は、NLP 研究者にとって … 続きを読む
InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification
要約 テキストの簡略化は、専門テキストを一般の人が理解しやすくすることを目的とし … 続きを読む
カテゴリー: cs.CL
InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification はコメントを受け付けていません
MEDIQ: Question-Asking LLMs for Adaptive and Reliable Clinical Reasoning
要約 臨床推論のような一か八かの分野では、大規模言語モデル (LLM) を利用し … 続きを読む
Technical Language Processing for Telecommunications Specifications
要約 大規模言語モデル (LLM) は、より多様なコンテキストで継続的に適用され … 続きを読む