月別アーカイブ: 2025年5月

Kernel Ridge Regression for Efficient Learning of High-Capacity Hopfield Networks

要約 Hebbian Learningを使用したHopfieldネットワークは、 … 続きを読む

カテゴリー: cs.LG, cs.NE | Kernel Ridge Regression for Efficient Learning of High-Capacity Hopfield Networks はコメントを受け付けていません

On the Importance of Gaussianizing Representations

要約 正規分布は、情報理論の中心的な役割を果たします – 同時に、最 … 続きを読む

カテゴリー: cs.LG | On the Importance of Gaussianizing Representations はコメントを受け付けていません

Action-Minimization Meets Generative Modeling: Efficient Transition Path Sampling with the Onsager-Machlup Functional

要約 エネルギー環境上の2つのポイントを接続する可能性のあるパスを見つけることを … 続きを読む

カテゴリー: cond-mat.mtrl-sci, cs.LG, physics.chem-ph, q-bio.BM | Action-Minimization Meets Generative Modeling: Efficient Transition Path Sampling with the Onsager-Machlup Functional はコメントを受け付けていません

Self-Generated In-Context Examples Improve LLM Agents for Sequential Decision-Making Tasks

要約 シーケンシャルな意思決定タスクの大規模言語モデル(LLM)エージェントを改 … 続きを読む

カテゴリー: cs.CL, cs.LG | Self-Generated In-Context Examples Improve LLM Agents for Sequential Decision-Making Tasks はコメントを受け付けていません

‘Reasoning’ with Rhetoric: On the Style-Evidence Tradeoff in LLM-Generated Counter-Arguments

要約 大規模な言語モデル(LLMS)は、エビデンスに基づいたスタイルの反論を生成 … 続きを読む

カテゴリー: cs.CL | ‘Reasoning’ with Rhetoric: On the Style-Evidence Tradeoff in LLM-Generated Counter-Arguments はコメントを受け付けていません

QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving

要約 量子化は、大規模な言語モデル(LLM)推論を加速できます。 INT8の量子 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PF | QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving はコメントを受け付けていません

BRIDGE: Benchmarking Large Language Models for Understanding Real-world Clinical Practice Text

要約 大規模な言語モデル(LLMS)は、医療用途に非常に有望であり、急速に進化し … 続きを読む

カテゴリー: cs.AI, cs.CL | BRIDGE: Benchmarking Large Language Models for Understanding Real-world Clinical Practice Text はコメントを受け付けていません

Generating Traffic Scenarios via In-Context Learning to Learn Better Motion Planner

要約 モーション計画は、自律運転における重要なコンポーネントです。 最先端のモー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.GR, cs.LG, cs.RO | Generating Traffic Scenarios via In-Context Learning to Learn Better Motion Planner はコメントを受け付けていません

Meta-rater: A Multi-dimensional Data Selection Method for Pre-training Language Models

要約 大規模な言語モデル(LLM)のトレーニング前のデータセットの構成は、ほとん … 続きを読む

カテゴリー: cs.CL | Meta-rater: A Multi-dimensional Data Selection Method for Pre-training Language Models はコメントを受け付けていません

TaeBench: Improving Quality of Toxic Adversarial Examples

要約 毒性テキスト検出器は、敵対的な例に対して脆弱になる可能性があります &#8 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | TaeBench: Improving Quality of Toxic Adversarial Examples はコメントを受け付けていません