cs.LG」カテゴリーアーカイブ

Train for the Worst, Plan for the Best: Understanding Token Ordering in Masked Diffusions

要約 近年、マスクされた拡散モデル(MDM)は、離散ドメイン上の生成モデリングの … 続きを読む

カテゴリー: cs.LG | Train for the Worst, Plan for the Best: Understanding Token Ordering in Masked Diffusions はコメントを受け付けていません

Unsupervised Particle Tracking with Neuromorphic Computing

要約 スパイク時間依存の可塑性ルールを使用して、遅延とシナプス重みの監視されてい … 続きを読む

カテゴリー: cs.ET, cs.LG, cs.NE, hep-ex, I.2 | Unsupervised Particle Tracking with Neuromorphic Computing はコメントを受け付けていません

ENFORCE: Exact Nonlinear Constrained Learning with Adaptive-depth Neural Projection

要約 ニューラルネットワークがドメイン固有の制約に準拠することを保証することは、 … 続きを読む

カテゴリー: cs.LG | ENFORCE: Exact Nonlinear Constrained Learning with Adaptive-depth Neural Projection はコメントを受け付けていません

When Witnesses Defend: A Witness Graph Topological Layer for Adversarial Graph Learning

要約 形状特性が摂動により堅牢であるという直感的な前提を活用すると、計算トポロジ … 続きを読む

カテゴリー: cs.LG | When Witnesses Defend: A Witness Graph Topological Layer for Adversarial Graph Learning はコメントを受け付けていません

Enhancing Performance of Explainable AI Models with Constrained Concept Refinement

要約 精度と解釈可能性のトレードオフは、機械学習(ML)の挑戦でした。 この緊張 … 続きを読む

カテゴリー: cs.LG | Enhancing Performance of Explainable AI Models with Constrained Concept Refinement はコメントを受け付けていません

Learning an Optimal Assortment Policy under Observational Data

要約 多項ロジット(MNL)モデルの下でオフラインの品揃え最適化の基本的な問題を … 続きを読む

カテゴリー: cs.LG, math.OC, math.ST, stat.ML, stat.TH | Learning an Optimal Assortment Policy under Observational Data はコメントを受け付けていません

DeepCrossAttention: Supercharging Transformer Residual Connections

要約 トランスネットワークは、多様なドメイン全体で顕著な成功を収めており、残留接 … 続きを読む

カテゴリー: cs.LG | DeepCrossAttention: Supercharging Transformer Residual Connections はコメントを受け付けていません

Ignore the KL Penalty! Boosting Exploration on Critical Tokens to Enhance RL Fine-Tuning

要約 長期的な目標を達成する能力は、大規模な言語モデル(LLMS)の現在の開発に … 続きを読む

カテゴリー: cs.CL, cs.LG | Ignore the KL Penalty! Boosting Exploration on Critical Tokens to Enhance RL Fine-Tuning はコメントを受け付けていません

LCQ: Low-Rank Codebook based Quantization for Large Language Models

要約 大規模な言語モデル〜(LLMS)は最近、多くのタスクで有望なパフォーマンス … 続きを読む

カテゴリー: cs.CL, cs.LG | LCQ: Low-Rank Codebook based Quantization for Large Language Models はコメントを受け付けていません

Panza: Design and Analysis of a Fully-Local Personalized Text Writing Assistant

要約 強力なオープンソースの大型言語モデル(LLMS)の可用性は、個人データを使 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG | Panza: Design and Analysis of a Fully-Local Personalized Text Writing Assistant はコメントを受け付けていません