cs.LG」カテゴリーアーカイブ

Learning to Price Homogeneous Data

要約 私たちは、販売者が $N$ の同種データ ポイント (例: あるディストリ … 続きを読む

カテゴリー: cs.GT, cs.LG | Learning to Price Homogeneous Data はコメントを受け付けていません

From Imitation to Refinement — Residual RL for Precise Assembly

要約 アクションのチャンク化や拡散などの動作クローニング (BC) の最近の進歩 … 続きを読む

カテゴリー: cs.LG, cs.RO | From Imitation to Refinement — Residual RL for Precise Assembly はコメントを受け付けていません

Culinary Class Wars: Evaluating LLMs using ASH in Cuisine Transfer Task

要約 大規模言語モデル (LLM) の出現は、料理芸術を含むさまざまな創造的な領 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Culinary Class Wars: Evaluating LLMs using ASH in Cuisine Transfer Task はコメントを受け付けていません

Online Adaptation of Language Models with a Memory of Amortized Contexts

要約 情報の生成と普及が速いため、大規模言語モデル (LLM) は、莫大な開発コ … 続きを読む

カテゴリー: cs.CL, cs.LG | Online Adaptation of Language Models with a Memory of Amortized Contexts はコメントを受け付けていません

Scalable Efficient Training of Large Language Models with Low-dimensional Projected Attention

要約 大規模言語モデル (LLM) の有効性と効率性を同時に改善することは、重要 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Scalable Efficient Training of Large Language Models with Low-dimensional Projected Attention はコメントを受け付けていません

BiVLC: Extending Vision-Language Compositionality Evaluation with Text-to-Image Retrieval

要約 SugarCrepe のような既存の視覚言語構成性 (VLC) ベンチマー … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | BiVLC: Extending Vision-Language Compositionality Evaluation with Text-to-Image Retrieval はコメントを受け付けていません

Regress, Don’t Guess — A Regression-like Loss on Number Tokens for Language Models

要約 言語モデルはテキスト生成において優れた能力を持っていますが、数値を出力する … 続きを読む

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG, cs.MS | Regress, Don’t Guess — A Regression-like Loss on Number Tokens for Language Models はコメントを受け付けていません

TorchTitan: One-stop PyTorch native solution for production ready LLM pre-training

要約 大規模言語モデル (LLM) の開発は、最先端の自然言語処理アプリケーショ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC, cs.LG | TorchTitan: One-stop PyTorch native solution for production ready LLM pre-training はコメントを受け付けていません

The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units

要約 大規模言語モデル (LLM) は、言語タスクだけでなく、論理的推論や社会的 … 続きを読む

カテゴリー: cs.CL, cs.LG | The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units はコメントを受け付けていません

Sparsing Law: Towards Large Language Models with Greater Activation Sparsity

要約 アクティベーションの希薄性は、アクティベーション出力内に、除去できる寄与度 … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7, stat.ML | Sparsing Law: Towards Large Language Models with Greater Activation Sparsity はコメントを受け付けていません