月別アーカイブ: 2025年2月

Exploring Personalized Health Support through Data-Driven, Theory-Guided LLMs: A Case Study in Sleep Health

要約 睡眠追跡装置の有病率にもかかわらず、多くの個人は、データを睡眠の健康の実用 … 続きを読む

カテゴリー: cs.CL, cs.HC | Exploring Personalized Health Support through Data-Driven, Theory-Guided LLMs: A Case Study in Sleep Health はコメントを受け付けていません

LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization

要約 大規模な言語モデル(LLMS)は、前oraingと整列により顕著な能力を実 … 続きを読む

カテゴリー: cs.CL, cs.LG | LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization はコメントを受け付けていません

Beyond Single Frames: Can LMMs Comprehend Temporal and Contextual Narratives in Image Sequences?

要約 大規模なマルチモーダルモデル(LMM)は、さまざまな視覚言語のタスクで顕著 … 続きを読む

カテゴリー: cs.CL | Beyond Single Frames: Can LMMs Comprehend Temporal and Contextual Narratives in Image Sequences? はコメントを受け付けていません

Latent Distribution Decoupling: A Probabilistic Framework for Uncertainty-Aware Multimodal Emotion Recognition

要約 マルチモーダルマルチラベル感情認識(MMER)は、マルチモーダルデータにお … 続きを読む

カテゴリー: cs.CL, cs.LG | Latent Distribution Decoupling: A Probabilistic Framework for Uncertainty-Aware Multimodal Emotion Recognition はコメントを受け付けていません

LIDDIA: Language-based Intelligent Drug Discovery Agent

要約 創薬は長く、高価で複雑なプロセスであり、潜在的な治療の広大な空間を検索する … 続きを読む

カテゴリー: cs.CL | LIDDIA: Language-based Intelligent Drug Discovery Agent はコメントを受け付けていません

Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering

要約 大規模な言語モデルのテスト時間計算をスケーリングすることで、ベンチマークの … 続きを読む

カテゴリー: cs.CL | Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering はコメントを受け付けていません

MuDAF: Long-Context Multi-Document Attention Focusing through Contrastive Learning on Attention Heads

要約 大規模な言語モデル(LLM)は、入力の無関係な情報のために気を散らす注意を … 続きを読む

カテゴリー: cs.CL | MuDAF: Long-Context Multi-Document Attention Focusing through Contrastive Learning on Attention Heads はコメントを受け付けていません

Theory on Mixture-of-Experts in Continual Learning

要約 継続的な学習(CL)は、時間の経過とともに到着する新しいタスクに適応する能 … 続きを読む

カテゴリー: cs.AI, cs.LG | Theory on Mixture-of-Experts in Continual Learning はコメントを受け付けていません

Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient

要約 専門家(MOE)のアーキテクチャの混合は、大規模な機械学習モデルの研究と現 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient はコメントを受け付けていません

VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare

要約 アライメント技術は、大規模な言語モデル(LLM)が人間の価値と一致する出力 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare はコメントを受け付けていません