-
最近の投稿
- A Systematic Approach to Design Real-World Human-in-the-Loop Deep Reinforcement Learning: Salient Features, Challenges and Trade-offs
- Robo-Troj: Attacking LLM-based Task Planners
- SE(3)-Equivariant Robot Learning and Control: A Tutorial Survey
- Geometric Formulation of Unified Force-Impedance Control on SE(3) for Robotic Manipulators
- Subframework-based Bearing Rigidity Maintenance Control in Multirobot Networks
-
最近のコメント
表示できるコメントはありません。 cs.AI (37106) cs.CL (28087) cs.CV (42847) cs.HC (2837) cs.LG (42044) cs.RO (21987) cs.SY (3355) eess.IV (4990) eess.SY (3347) stat.ML (5498)
月別アーカイブ: 2024年6月
Fairness-Optimized Synthetic EHR Generation for Arbitrary Downstream Predictive Tasks
要約 医療アプリケーション向けの AI ツールの責任ある設計を確保するためのさま … 続きを読む
カテゴリー: cs.LG
Fairness-Optimized Synthetic EHR Generation for Arbitrary Downstream Predictive Tasks はコメントを受け付けていません
Uncertainty of Joint Neural Contextual Bandit
要約 コンテキスト バンディット学習は、最新の大規模レコメンデーション システム … 続きを読む
カテゴリー: cs.LG
Uncertainty of Joint Neural Contextual Bandit はコメントを受け付けていません
Can We Remove the Square-Root in Adaptive Gradient Methods? A Second-Order Perspective
要約 Adam(W) のような適応勾配オプティマイザーは、トランスフォーマーなど … 続きを読む
Loki: Low-Rank Keys for Efficient Sparse Attention
要約 大規模な言語モデルでの推論は、特に長いシーケンス長が使用される場合、関連す … 続きを読む
カテゴリー: cs.LG
Loki: Low-Rank Keys for Efficient Sparse Attention はコメントを受け付けていません
Robust and highly scalable estimation of directional couplings from time-shifted signals
要約 間接測定からネットワークのノード間の有向結合を推定することは、神経科学、シ … 続きを読む
カテゴリー: cs.LG
Robust and highly scalable estimation of directional couplings from time-shifted signals はコメントを受け付けていません
Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks
要約 大規模な言語モデルは、トレーニング セットには存在しなかったタスクを解決で … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, hep-th, stat.ML
Learning to grok: Emergence of in-context learning and skill composition in modular arithmetic tasks はコメントを受け付けていません
CantonMT: Cantonese to English NMT Platform with Fine-Tuned Models Using Synthetic Back-Translation Data
要約 低リソース言語のニューラル機械翻訳 (NMT) は、NLP 研究者にとって … 続きを読む
InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification
要約 テキストの簡略化は、専門テキストを一般の人が理解しやすくすることを目的とし … 続きを読む
カテゴリー: cs.CL
InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification はコメントを受け付けていません
MEDIQ: Question-Asking LLMs for Adaptive and Reliable Clinical Reasoning
要約 臨床推論のような一か八かの分野では、大規模言語モデル (LLM) を利用し … 続きを読む
Technical Language Processing for Telecommunications Specifications
要約 大規模言語モデル (LLM) は、より多様なコンテキストで継続的に適用され … 続きを読む