cs.LG」カテゴリーアーカイブ

Efficient distributed representations with linear-time attention scores normalization

要約 注意スコア行列 ${\rm SoftMax}(XY^T)$ は、オブジェク … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | Efficient distributed representations with linear-time attention scores normalization はコメントを受け付けていません

VisAidMath: Benchmarking Visual-Aided Mathematical Reasoning

要約 大規模言語モデル (LLM) および大規模マルチモーダル モデル (LMM … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | VisAidMath: Benchmarking Visual-Aided Mathematical Reasoning はコメントを受け付けていません

Linear Adversarial Concept Erasure

要約 テキスト データに基づいてトレーニングされた最新のニューラル モデルは、直 … 続きを読む

カテゴリー: cs.CL, cs.LG | Linear Adversarial Concept Erasure はコメントを受け付けていません

Online Intrinsic Rewards for Decision Making Agents from Large Language Model Feedback

要約 自然言語記述からの高密度報酬の自動合成は、強化学習 (RL) における有望 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.RO | Online Intrinsic Rewards for Decision Making Agents from Large Language Model Feedback はコメントを受け付けていません

Controlling Language and Diffusion Models by Transporting Activations

要約 大規模な生成モデルの機能が向上し、その導入がますます広範囲に行われるように … 続きを読む

カテゴリー: 49Q22, 68T07, cs.AI, cs.CL, cs.CV, cs.LG, I.2.6 | Controlling Language and Diffusion Models by Transporting Activations はコメントを受け付けていません

Measuring Progress in Dictionary Learning for Language Model Interpretability with Board Game Models

要約 言語モデル (LM) 表現にはどのような潜在的な機能がエンコードされていま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Measuring Progress in Dictionary Learning for Language Model Interpretability with Board Game Models はコメントを受け付けていません

Don’t Just Pay Attention, PLANT It: Transfer L2R Models to Fine-tune Attention in Extreme Multi-Label Text Classification

要約 最先端のエクストリーム マルチラベル テキスト分類 (XMTC) モデルは … 続きを読む

カテゴリー: cs.CL, cs.LG | Don’t Just Pay Attention, PLANT It: Transfer L2R Models to Fine-tune Attention in Extreme Multi-Label Text Classification はコメントを受け付けていません

Benchmarking Agentic Workflow Generation

要約 大規模言語モデル (LLM) は、幅広いタスクを処理する優れた能力を備えて … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG, cs.MA | Benchmarking Agentic Workflow Generation はコメントを受け付けていません

MInference 1.0: Accelerating Pre-filling for Long-Context LLMs via Dynamic Sparse Attention

要約 大規模言語モデル (LLM) 推論の計算上の課題は、特にプロンプ​​トの長 … 続きを読む

カテゴリー: cs.CL, cs.LG | MInference 1.0: Accelerating Pre-filling for Long-Context LLMs via Dynamic Sparse Attention はコメントを受け付けていません

Comparative Analysis of Demonstration Selection Algorithms for LLM In-Context Learning

要約 インコンテキスト学習は、大規模言語モデル (LLM) が追加のトレーニング … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Comparative Analysis of Demonstration Selection Algorithms for LLM In-Context Learning はコメントを受け付けていません