cs.LG」カテゴリーアーカイブ

Chameleon: A MatMul-Free Temporal Convolutional Network Accelerator for End-to-End Few-Shot and Continual Learning from Sequential Data

要約 エッジでのデバイス上の学習により、長期的な堅牢性が向上し、メンテナンスコス … 続きを読む

カテゴリー: cs.AR, cs.LG, I.2.6 | Chameleon: A MatMul-Free Temporal Convolutional Network Accelerator for End-to-End Few-Shot and Continual Learning from Sequential Data はコメントを受け付けていません

Accelerated Sampling from Masked Diffusion Models via Entropy Bounded Unmasking

要約 最近のマスク拡散モデル(MDMS)は、言語モデリングの自己回帰モデル(AR … 続きを読む

カテゴリー: cs.LG | Accelerated Sampling from Masked Diffusion Models via Entropy Bounded Unmasking はコメントを受け付けていません

The Road to Generalizable Neuro-Symbolic Learning Should be Paved with Foundation Models

要約 ニューロシンボリック学習は、解釈可能性、信頼性、効率の追加の利点を備えた複 … 続きを読む

カテゴリー: cs.LG | The Road to Generalizable Neuro-Symbolic Learning Should be Paved with Foundation Models はコメントを受け付けていません

SUMO: Subspace-Aware Moment-Orthogonalization for Accelerating Memory-Efficient LLM Training

要約 低ランクの勾配ベースの最適化方法により、大規模な言語モデル(LLM)のトレ … 続きを読む

カテゴリー: cs.CL, cs.LG, math.OC | SUMO: Subspace-Aware Moment-Orthogonalization for Accelerating Memory-Efficient LLM Training はコメントを受け付けていません

Chameleon: A Flexible Data-mixing Framework for Language Model Pretraining and Finetuning

要約 トレーニングデータの混合物は、大規模な言語モデルの一般化パフォーマンスに大 … 続きを読む

カテゴリー: cs.CL, cs.LG | Chameleon: A Flexible Data-mixing Framework for Language Model Pretraining and Finetuning はコメントを受け付けていません

MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs

要約 LLMSの信頼性における重要な要素は信頼性の高い不確実性コミュニケーション … 続きを読む

カテゴリー: cs.CL, cs.LG | MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs はコメントを受け付けていません

Beyond Multiple Choice: Evaluating Steering Vectors for Adaptive Free-Form Summarization

要約 ステアリングベクターは、推論時間に言語モデルのアクティベーションに学習バイ … 続きを読む

カテゴリー: cs.CL, cs.LG | Beyond Multiple Choice: Evaluating Steering Vectors for Adaptive Free-Form Summarization はコメントを受け付けていません

LEMMA: Learning from Errors for MatheMatical Advancement in LLMs

要約 大規模な言語モデル(LLM)は、数学的問題を解決する際に顕著な推論能力を示 … 続きを読む

カテゴリー: cs.AI, cs.LG | LEMMA: Learning from Errors for MatheMatical Advancement in LLMs はコメントを受け付けていません

On Symmetric Losses for Robust Policy Optimization with Noisy Preferences

要約 人間の好みに基づいてポリシーを最適化することは、言語モデルを人間の意図に合 … 続きを読む

カテゴリー: cs.AI, cs.LG | On Symmetric Losses for Robust Policy Optimization with Noisy Preferences はコメントを受け付けていません

Causal-aware Large Language Models: Enhancing Decision-Making Through Learning, Adapting and Acting

要約 大規模な言語モデル(LLM)は、モデル内に保存されている膨大な量の知識のた … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Causal-aware Large Language Models: Enhancing Decision-Making Through Learning, Adapting and Acting はコメントを受け付けていません