cs.LG」カテゴリーアーカイブ

Probabilities-Informed Machine Learning

要約 機械学習 (ML) は、複雑な回帰および分類タスクに取り組むための強力なツ … 続きを読む

カテゴリー: cs.LG, math.PR | Probabilities-Informed Machine Learning はコメントを受け付けていません

More is not always better? Enhancing Many-Shot In-Context Learning with Differentiated and Reweighting Objectives

要約 大規模言語モデル (LLM) は、パラメーターの更新を必要とせず、数ショッ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | More is not always better? Enhancing Many-Shot In-Context Learning with Differentiated and Reweighting Objectives はコメントを受け付けていません

Multi-Task Model Merging via Adaptive Weight Disentanglement

要約 モデルのマージは、さまざまなタスクからのタスク固有の重みを統合されたマルチ … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | Multi-Task Model Merging via Adaptive Weight Disentanglement はコメントを受け付けていません

Demystifying Domain-adaptive Post-training for Financial LLMs

要約 大規模言語モデル (LLM) のドメイン適応型ポストトレーニングは、医療や … 続きを読む

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG | Demystifying Domain-adaptive Post-training for Financial LLMs はコメントを受け付けていません

ITINERA: Integrating Spatial Optimization with Large Language Models for Open-domain Urban Itinerary Planning

要約 最近人気の都市旅行形式であるシティウォークでは、従来の旅程計画と比較して、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ITINERA: Integrating Spatial Optimization with Large Language Models for Open-domain Urban Itinerary Planning はコメントを受け付けていません

Comparison of Feature Learning Methods for Metadata Extraction from PDF Scholarly Documents

要約 科学文書のメタデータの利用可能性は、科学知識を前進させ、研究結果の FAI … 続きを読む

カテゴリー: cs.CL, cs.DL, cs.IR, cs.LG | Comparison of Feature Learning Methods for Metadata Extraction from PDF Scholarly Documents はコメントを受け付けていません

HiTZ at VarDial 2025 NorSID: Overcoming Data Scarcity with Language Transfer and Automatic Data Annotation

要約 この論文では、2025 年の VarDial ワークショップ (Scher … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | HiTZ at VarDial 2025 NorSID: Overcoming Data Scarcity with Language Transfer and Automatic Data Annotation はコメントを受け付けていません

OneLLM: One Framework to Align All Modalities with Language

要約 マルチモーダル大規模言語モデル (MLLM) は、その強力なマルチモーダル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG, cs.MM | OneLLM: One Framework to Align All Modalities with Language はコメントを受け付けていません

Zeroth-Order Adaptive Neuron Alignment Based Pruning without Re-Training

要約 ネットワーク プルーニングは、パフォーマンスへの影響を最小限に抑えながらパ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Zeroth-Order Adaptive Neuron Alignment Based Pruning without Re-Training はコメントを受け付けていません

Latent Reward: LLM-Empowered Credit Assignment in Episodic Reinforcement Learning

要約 強化学習 (RL) では、現実世界のアプリケーションでは、一時的な報酬しか … 続きを読む

カテゴリー: cs.AI, cs.LG | Latent Reward: LLM-Empowered Credit Assignment in Episodic Reinforcement Learning はコメントを受け付けていません