cs.LG」カテゴリーアーカイブ

Improving Probabilistic Diffusion Models With Optimal Diagonal Covariance Matching

要約 確率的拡散モデルは、さまざまなドメインで非常に効果的になりました。 通常、 … 続きを読む

カテゴリー: cs.LG | Improving Probabilistic Diffusion Models With Optimal Diagonal Covariance Matching はコメントを受け付けていません

Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach

要約 透かしは、人間が作成したテキストとAIに生成されたテキストを区別するための … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach はコメントを受け付けていません

Dataset Distillation via Knowledge Distillation: Towards Efficient Self-Supervised Pre-Training of Deep Networks

要約 データセット蒸留(DD)は、限られた量のメモリと計算で深いネットワークを効 … 続きを読む

カテゴリー: cs.LG | Dataset Distillation via Knowledge Distillation: Towards Efficient Self-Supervised Pre-Training of Deep Networks はコメントを受け付けていません

Robotic Table Tennis: A Case Study into a High Speed Learning System

要約 私たちは、以前の研究では、人間と何百もの卓球集会が可能であり、ボールを望ま … 続きを読む

カテゴリー: cs.LG, cs.RO | Robotic Table Tennis: A Case Study into a High Speed Learning System はコメントを受け付けていません

The Computational Advantage of Depth: Learning High-Dimensional Hierarchical Functions with Gradient Descent

要約 浅いモデルと比較して勾配降下(GD)によって訓練された深いニューラルネット … 続きを読む

カテゴリー: cs.LG, stat.ML | The Computational Advantage of Depth: Learning High-Dimensional Hierarchical Functions with Gradient Descent はコメントを受け付けていません

Where’s the Bug? Attention Probing for Scalable Fault Localization

要約 コード関連のタスクでは、大規模な言語モデル(LLM)がますます能力があるに … 続きを読む

カテゴリー: cs.LG, cs.SE | Where’s the Bug? Attention Probing for Scalable Fault Localization はコメントを受け付けていません

Learning Novel Transformer Architecture for Time-series Forecasting

要約 タイムシリーズ予測(TSP)タスクにおけるトランスベースのモデルの成功にも … 続きを読む

カテゴリー: cs.CL, cs.LG | Learning Novel Transformer Architecture for Time-series Forecasting はコメントを受け付けていません

Evaluating Large Language Models for Public Health Classification and Extraction Tasks

要約 大規模な言語モデル(LLM)の進歩は、公衆衛生を含むさまざまなドメインにわ … 続きを読む

カテゴリー: 68T50, cs.CL, cs.LG | Evaluating Large Language Models for Public Health Classification and Extraction Tasks はコメントを受け付けていません

On the Duality between Gradient Transformations and Adapters

要約 線形勾配変換を伴うニューラルネットワークのメモリ効率の最適化を研究します。 … 続きを読む

カテゴリー: cs.CL, cs.LG | On the Duality between Gradient Transformations and Adapters はコメントを受け付けていません

LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization

要約 大規模な言語モデル(LLMS)は、前oraingと整列により顕著な能力を実 … 続きを読む

カテゴリー: cs.CL, cs.LG | LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization はコメントを受け付けていません