cs.LG」カテゴリーアーカイブ

FunReason: Enhancing Large Language Models’ Function Calling via Self-Refinement Multiscale Loss and Automated Data Refinement

要約 大規模な言語モデル(LLMS)と関数呼び出しの統合は、実際のアプリケーショ … 続きを読む

カテゴリー: cs.IR, cs.LG | FunReason: Enhancing Large Language Models’ Function Calling via Self-Refinement Multiscale Loss and Automated Data Refinement はコメントを受け付けていません

Fine-grained List-wise Alignment for Generative Medication Recommendation

要約 正確で安全な薬物療法の推奨事項は、特に多発性の場合に効果的な臨床的意思決定 … 続きを読む

カテゴリー: cs.LG | Fine-grained List-wise Alignment for Generative Medication Recommendation はコメントを受け付けていません

New Perspectives on the Polyak Stepsize: Surrogate Functions and Negative Results

要約 PolyAKの階段化は、凸の最適化における基本的なステップサイズであること … 続きを読む

カテゴリー: cs.LG, math.OC | New Perspectives on the Polyak Stepsize: Surrogate Functions and Negative Results はコメントを受け付けていません

Gradient Flow Matching for Learning Update Dynamics in Neural Network Training

要約 深いニューラルネットワークのトレーニングは、勾配ベースの最適化のitera … 続きを読む

カテゴリー: cs.LG, stat.ML | Gradient Flow Matching for Learning Update Dynamics in Neural Network Training はコメントを受け付けていません

Chain-of-Thought for Autonomous Driving: A Comprehensive Survey and Future Prospects

要約 自然言語処理における大規模な言語モデルの急速な進化により、セマンティックな … 続きを読む

カテゴリー: cs.LG, cs.RO | Chain-of-Thought for Autonomous Driving: A Comprehensive Survey and Future Prospects はコメントを受け付けていません

A Temporal Difference Method for Stochastic Continuous Dynamics

要約 ODEやSDEなどの動的方程式によってモデル化された連続システムの場合、ベ … 続きを読む

カテゴリー: cs.LG | A Temporal Difference Method for Stochastic Continuous Dynamics はコメントを受け付けていません

RedAHD: Reduction-Based End-to-End Automatic Heuristic Design with Large Language Models

要約 NPハードの組み合わせ最適化問題(COP)(たとえば、巡回セールスマンの問 … 続きを読む

カテゴリー: cs.LG | RedAHD: Reduction-Based End-to-End Automatic Heuristic Design with Large Language Models はコメントを受け付けていません

SAEs Are Good for Steering — If You Select the Right Features

要約 スパース自動エンコーダー(SAE)は、モデルの潜在空間の分解を学ぶための監 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SAEs Are Good for Steering — If You Select the Right Features はコメントを受け付けていません

AweDist: Attention-aware Embedding Distillation for New Input Token Embeddings

要約 現在の言語モデルは、前脱出時間で決定された静的な語彙に依存しており、これに … 続きを読む

カテゴリー: cs.CL, cs.LG | AweDist: Attention-aware Embedding Distillation for New Input Token Embeddings はコメントを受け付けていません

SeMe: Training-Free Language Model Merging via Semantic Alignment

要約 多様なタスク全体の言語モデル(LMS)の顕著な能力にもかかわらず、単一のモ … 続きを読む

カテゴリー: cs.CL, cs.LG | SeMe: Training-Free Language Model Merging via Semantic Alignment はコメントを受け付けていません