-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2025年2月
Exploring Personalized Health Support through Data-Driven, Theory-Guided LLMs: A Case Study in Sleep Health
要約 睡眠追跡装置の有病率にもかかわらず、多くの個人は、データを睡眠の健康の実用 … 続きを読む
LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization
要約 大規模な言語モデル(LLMS)は、前oraingと整列により顕著な能力を実 … 続きを読む
Beyond Single Frames: Can LMMs Comprehend Temporal and Contextual Narratives in Image Sequences?
要約 大規模なマルチモーダルモデル(LMM)は、さまざまな視覚言語のタスクで顕著 … 続きを読む
カテゴリー: cs.CL
Beyond Single Frames: Can LMMs Comprehend Temporal and Contextual Narratives in Image Sequences? はコメントを受け付けていません
Latent Distribution Decoupling: A Probabilistic Framework for Uncertainty-Aware Multimodal Emotion Recognition
要約 マルチモーダルマルチラベル感情認識(MMER)は、マルチモーダルデータにお … 続きを読む
LIDDIA: Language-based Intelligent Drug Discovery Agent
要約 創薬は長く、高価で複雑なプロセスであり、潜在的な治療の広大な空間を検索する … 続きを読む
カテゴリー: cs.CL
LIDDIA: Language-based Intelligent Drug Discovery Agent はコメントを受け付けていません
Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering
要約 大規模な言語モデルのテスト時間計算をスケーリングすることで、ベンチマークの … 続きを読む
カテゴリー: cs.CL
Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering はコメントを受け付けていません
MuDAF: Long-Context Multi-Document Attention Focusing through Contrastive Learning on Attention Heads
要約 大規模な言語モデル(LLM)は、入力の無関係な情報のために気を散らす注意を … 続きを読む
カテゴリー: cs.CL
MuDAF: Long-Context Multi-Document Attention Focusing through Contrastive Learning on Attention Heads はコメントを受け付けていません
Theory on Mixture-of-Experts in Continual Learning
要約 継続的な学習(CL)は、時間の経過とともに到着する新しいタスクに適応する能 … 続きを読む
Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient
要約 専門家(MOE)のアーキテクチャの混合は、大規模な機械学習モデルの研究と現 … 続きを読む
VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare
要約 アライメント技術は、大規模な言語モデル(LLM)が人間の価値と一致する出力 … 続きを読む