cs.LG」カテゴリーアーカイブ

Analyzing the Generalization and Reliability of Steering Vectors

要約 ステアリング ベクトル (SV) は、中間モデルのアクティベーションに介入 … 続きを読む

カテゴリー: cs.LG | Analyzing the Generalization and Reliability of Steering Vectors はコメントを受け付けていません

Graph Size-imbalanced Learning with Energy-guided Structural Smoothing

要約 グラフはエンティティ間の関係を表すために使用される一般的なデータ構造であり … 続きを読む

カテゴリー: cs.LG, stat.ML | Graph Size-imbalanced Learning with Energy-guided Structural Smoothing はコメントを受け付けていません

EasyTime: Time Series Forecasting Made Easy

要約 時系列予測には、さまざまなドメインにわたって重要な用途があります。 私たち … 続きを読む

カテゴリー: cs.LG, stat.ML | EasyTime: Time Series Forecasting Made Easy はコメントを受け付けていません

Initialization Method for Factorization Machine Based on Low-Rank Approximation for Constructing a Corrected Approximate Ising Model

要約 本稿では、機械学習モデルである因数分解機(FM)を用いて、与えられた近似イ … 続きを読む

カテゴリー: cs.LG | Initialization Method for Factorization Machine Based on Low-Rank Approximation for Constructing a Corrected Approximate Ising Model はコメントを受け付けていません

Towards Foundation Models on Graphs: An Analysis on Cross-Dataset Transfer of Pretrained GNNs

要約 グラフ基盤モデルに対する予備的な理解を進めるために、事前トレーニングされた … 続きを読む

カテゴリー: cs.LG, cs.NE | Towards Foundation Models on Graphs: An Analysis on Cross-Dataset Transfer of Pretrained GNNs はコメントを受け付けていません

Can Stability be Detrimental? Better Generalization through Gradient Descent Instabilities

要約 勾配降下法最適化の従来の分析では、損失ヘシアンの最大固有値 (シャープネス … 続きを読む

カテゴリー: cs.LG, stat.ML | Can Stability be Detrimental? Better Generalization through Gradient Descent Instabilities はコメントを受け付けていません

Be More Diverse than the Most Diverse: Online Selection of Diverse Mixtures of Generative Models

要約 生成モデルに複数のトレーニング アルゴリズムとアーキテクチャを利用できるよ … 続きを読む

カテゴリー: cs.LG, stat.ML | Be More Diverse than the Most Diverse: Online Selection of Diverse Mixtures of Generative Models はコメントを受け付けていません

Towards An Unsupervised Learning Scheme for Efficiently Solving Parameterized Mixed-Integer Programs

要約 この論文では、混合整数計画法 (MIP) 問題群の解決を加速するための新し … 続きを読む

カテゴリー: cs.LG, math.OC | Towards An Unsupervised Learning Scheme for Efficiently Solving Parameterized Mixed-Integer Programs はコメントを受け付けていません

Rate of Model Collapse in Recursive Training

要約 機械学習モデルから合成データを簡単に作成できるため、以前のモデルによって生 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | Rate of Model Collapse in Recursive Training はコメントを受け付けていません

Sharp bounds on aggregate expert error

要約 ナイーブ ベイズ設定としても知られる、条件付きで独立した専門家からのバイナ … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.ML, stat.TH | Sharp bounds on aggregate expert error はコメントを受け付けていません