cs.LG」カテゴリーアーカイブ

CENTS: Generating synthetic electricity consumption time series for rare and unseen scenarios

要約 大規模生成モデリングの最近のブレークスルーは、自然言語、コンピュータービジ … 続きを読む

カテゴリー: cs.LG | CENTS: Generating synthetic electricity consumption time series for rare and unseen scenarios はコメントを受け付けていません

Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization

要約 $ \ min_ \ textbf {x} \ max _ {\ text … 続きを読む

カテゴリー: cs.LG, math.OC | Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization はコメントを受け付けていません

Graph Neural Network Based Hybrid Beamforming Design in Wideband Terahertz MIMO-OFDM Systems

要約 6Gワイヤレステクノロジーは、高度に方向性のあるビームフォーミングによって … 続きを読む

カテゴリー: cs.LG, cs.NI, eess.SP | Graph Neural Network Based Hybrid Beamforming Design in Wideband Terahertz MIMO-OFDM Systems はコメントを受け付けていません

Implicit Bias in Matrix Factorization and its Explicit Realization in a New Architecture

要約 マトリックス因数分解の勾配降下は、ほぼ低いランクのソリューションに対して暗 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Implicit Bias in Matrix Factorization and its Explicit Realization in a New Architecture はコメントを受け付けていません

Tailored Forecasting from Short Time Series via Meta-learning

要約 機械学習(ML)モデルは、時シリーズデータから未知のシステムのダイナミクス … 続きを読む

カテゴリー: cs.LG, nlin.CD, physics.comp-ph | Tailored Forecasting from Short Time Series via Meta-learning はコメントを受け付けていません

BiMix: A Bivariate Data Mixing Law for Language Model Pretraining

要約 大規模な言語モデルは、さまざまなタスクにわたって顕著な能力を実証しており、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | BiMix: A Bivariate Data Mixing Law for Language Model Pretraining はコメントを受け付けていません

Softplus Attention with Re-weighting Boosts Length Extrapolation in Large Language Models

要約 大規模な言語モデルは、主に自己関節メカニズムの実装により、近年顕著な成功を … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Softplus Attention with Re-weighting Boosts Length Extrapolation in Large Language Models はコメントを受け付けていません

PrefixQuant: Eliminating Outliers by Prefixed Tokens for Large Language Models Quantization

要約 大規模な言語モデル(LLM)の既存の重量活性化量子化方法は、主にチャネルご … 続きを読む

カテゴリー: cs.CL, cs.LG | PrefixQuant: Eliminating Outliers by Prefixed Tokens for Large Language Models Quantization はコメントを受け付けていません

Challenging Assumptions in Learning Generic Text Style Embeddings

要約 言語表現学習の最近の進歩は、主に意味のある表現を導き出すための言語モデリン … 続きを読む

カテゴリー: cs.CL, cs.LG | Challenging Assumptions in Learning Generic Text Style Embeddings はコメントを受け付けていません

SLMRec: Distilling Large Language Models into Small for Sequential Recommendation

要約 順次推奨(SR)タスクには、過去の相互作用を考慮して、ユーザーが対話する可 … 続きを読む

カテゴリー: cs.CL, cs.IR, cs.LG | SLMRec: Distilling Large Language Models into Small for Sequential Recommendation はコメントを受け付けていません