Performance of Zero-Shot Time Series Foundation Models on Cloud Data

要約

時系列基礎モデル(FMS)は、ゼロショットマルチドメイン予測の人気のあるパラダイムとして浮上しています。
FMは多様なデータセットでトレーニングされており、クラウドデータを含む複数の異なる時系列ドメインにわたって効果的な予測者であると主張しています。
この作業では、この主張を調査し、クラウドデータに対するFMSの有効性を調査します。
多くのよく知られているFMSが、この設定で意味のあるまたは正確なゼロショット予測を生成できないことを実証します。
この主張は経験的に支持し、FMは単純な線形ベースラインによって一貫してアウトパフォームされていることを示しています。
また、FMが突然不安定でランダムに見える予測を突然出力するインスタンスなど、多くの興味深い病理を説明します。
我々の結果は、FMSがクラウドデータをモデル化することが広く失敗したことを示唆しています。

要約(オリジナル)

Time series foundation models (FMs) have emerged as a popular paradigm for zero-shot multi-domain forecasting. FMs are trained on numerous diverse datasets and claim to be effective forecasters across multiple different time series domains, including cloud data. In this work we investigate this claim, exploring the effectiveness of FMs on cloud data. We demonstrate that many well-known FMs fail to generate meaningful or accurate zero-shot forecasts in this setting. We support this claim empirically, showing that FMs are outperformed consistently by simple linear baselines. We also illustrate a number of interesting pathologies, including instances where FMs suddenly output seemingly erratic, random-looking forecasts. Our results suggest a widespread failure of FMs to model cloud data.

arxiv情報

著者 William Toner,Thomas L. Lee,Artjom Joosen,Rajkarn Singh,Martin Asenov
発行日 2025-03-04 16:02:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Performance of Zero-Shot Time Series Foundation Models on Cloud Data はコメントを受け付けていません

Efficient and Optimal No-Regret Caching under Partial Observation

要約

オンライン学習アルゴリズムは、要求シーケンスに関する統計的仮定なしで、リクエストの総数でサブリンの後悔を伴うキャッシュポリシーを設計するために成功裏に使用されています。
ほとんどの既存のアルゴリズムには、計算上の高価な操作が含まれており、過去のすべてのリクエストの知識が必要です。
ただし、これは、携帯電話基地局でのキャッシュなどの実際のシナリオでは実現できない場合があります。
したがって、過去のリクエストのほんの一部しか観察されない、より制限的な設定でキャッシュ問題を研究し、従来のオンライン学習アルゴリズムに基づいて、頻繁に襲われた従来のアルゴリズム(FPL)に基づいて、サブリンの後悔を伴うランダム化キャッシュポリシーを提案します。
当社のキャッシュポリシーは、リクエストの部分的な観測可能性設定で漸近的に一定の償却時間の複雑さを確保しながら、漸近的に最適な後悔を達成した最初のポリシーです。
実験的評価は、提案されたソリューションを古典的なキャッシングポリシーと比較し、合成および実世界の要求トレースの下で提案されたアプローチを検証します。

要約(オリジナル)

Online learning algorithms have been successfully used to design caching policies with sublinear regret in the total number of requests, with no statistical assumption about the request sequence. Most existing algorithms involve computationally expensive operations and require knowledge of all past requests. However, this may not be feasible in practical scenarios like caching at a cellular base station. Therefore, we study the caching problem in a more restrictive setting where only a fraction of past requests are observed, and we propose a randomized caching policy with sublinear regret based on the classic online learning algorithm Follow-the-Perturbed-Leader (FPL). Our caching policy is the first to attain the asymptotically optimal regret bound while ensuring asymptotically constant amortized time complexity in the partial observability setting of requests. The experimental evaluation compares the proposed solution against classic caching policies and validates the proposed approach under synthetic and real-world request traces.

arxiv情報

著者 Younes Ben Mazziane,Francescomaria Faticanti,Sara Alouf,Giovanni Neglia
発行日 2025-03-04 16:21:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NI | Efficient and Optimal No-Regret Caching under Partial Observation はコメントを受け付けていません

Quantitative Resilience Modeling for Autonomous Cyber Defense

要約

サイバーレジリエンスとは、システム操作への影響を最小限に抑えて攻撃から回復するシステムの能力です。
ただし、サイバー攻撃の下でのネットワークの回復力を特徴付けることは困難です。これは、多様なネットワークトポロジと攻撃パターンに適用可能な回復力の正式な定義がないためです。
この作業では、複数のディフェンダーの運用目標、日常業務のためのさまざまなネットワークリソースの重要性を考慮し、攻撃でのシステムの回復力についてセキュリティオペレーターに解釈可能性を提供する回復力の定量化可能な定式化を提案します。
サイボーグ環境内のアプローチ、自律的なサイバー防衛のための強化学習(RL)フレームワーク、回復力、コスト、運用目標の優先順位付けの間のトレードオフの分析を評価します。
さらに、システムの回復力を包括的に特徴付ける時間変数攻撃パターンと複数のネットワークトポロジ全体にわたって回復力メトリックを集約する方法を紹介します。
Resilienceメトリックから得られた洞察を使用して、RL自律防御エージェントを設計し、それらをいくつかのヒューリスティックベースラインと比較します。

要約(オリジナル)

Cyber resilience is the ability of a system to recover from an attack with minimal impact on system operations. However, characterizing a network’s resilience under a cyber attack is challenging, as there are no formal definitions of resilience applicable to diverse network topologies and attack patterns. In this work, we propose a quantifiable formulation of resilience that considers multiple defender operational goals, the criticality of various network resources for daily operations, and provides interpretability to security operators about their system’s resilience under attack. We evaluate our approach within the CybORG environment, a reinforcement learning (RL) framework for autonomous cyber defense, analyzing trade-offs between resilience, costs, and prioritization of operational goals. Furthermore, we introduce methods to aggregate resilience metrics across time-variable attack patterns and multiple network topologies, comprehensively characterizing system resilience. Using insights gained from our resilience metrics, we design RL autonomous defensive agents and compare them against several heuristic baselines, showing that proactive network hardening techniques and prompt recovery of compromised machines are critical for effective cyber defenses.

arxiv情報

著者 Xavier Cadet,Simona Boboila,Edward Koh,Peter Chin,Alina Oprea
発行日 2025-03-04 16:52:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, cs.MA | Quantitative Resilience Modeling for Autonomous Cyber Defense はコメントを受け付けていません

Spike-and-Slab Posterior Sampling in High Dimensions

要約

さまざまな選択の不確実性をモデル化するために使用される一般的なマルチモーダル分布であるスパイクとスラブの事前[MB88]を使用した後部サンプリングは、ベイジアンスパース線形回帰[CPS09、ROC18]の理論的なゴールドスタンダード法と見なされます。
ただし、このサンプリングタスクを実行するための証明可能なアルゴリズムの設計は、困難であることで有名です。
ベイジアンスパース変数選択タスクの既存の事後サンプラーは、信号対雑音比(SNR)に関する強力な仮定が必要であり[YWJ16]、測定数が少なくとも次元で直線的に成長する場合にのみ機能します[MW24]、または事後のヒューリスティックな近似に依存します。
SNRに適用されるスパイクとスラブ後のサンプリングの最初の証明可能なアルゴリズムを提供し、問題の次元で測定カウントを使用します。
具体的には、測定マトリックス$ \ mathbf {x} \ in \ mathbb {r}^{n \ times d} $ and noisy observations $ \ mathbf {y} = \ mathbf {x}} \ mathbf {\ theta}^\ star + \ mathbf {
$ \ mathbf {\ theta}^\ star $は、ガウス拡散密度と予想されるスパースkを備えたスパイクアンドスラブ以前の$ \ pi $から描画されました。
\ sigma^2 \ mathbf {i} _n)$。
事後$ \ pi(\ cdot \ mid \ mathbf {x}、\ mathbf {y})$の多項式時間の高精度サンプラーをsnr $ \ sigma^{-1} $> 0に与えます。
制限付きアイソメトリープロパティを満たすマトリックスアンサンブル。
さらに、$ n \ geq k^5 \ cdot \ text {polylog}(d)$である限り、同じ設定でほぼ線形の時間$ \約nd $で実行されるサンプラーを提供します。
フレームワークの柔軟性を実証するために、ラプラス拡散密度によるスパイクアンドスラブ後のサンプリングに結果を拡張し、$ \ sigma = o(\ frac {1} {k})$が境界がある場合、同様の保証を達成します。

要約(オリジナル)

Posterior sampling with the spike-and-slab prior [MB88], a popular multimodal distribution used to model uncertainty in variable selection, is considered the theoretical gold standard method for Bayesian sparse linear regression [CPS09, Roc18]. However, designing provable algorithms for performing this sampling task is notoriously challenging. Existing posterior samplers for Bayesian sparse variable selection tasks either require strong assumptions about the signal-to-noise ratio (SNR) [YWJ16], only work when the measurement count grows at least linearly in the dimension [MW24], or rely on heuristic approximations to the posterior. We give the first provable algorithms for spike-and-slab posterior sampling that apply for any SNR, and use a measurement count sublinear in the problem dimension. Concretely, assume we are given a measurement matrix $\mathbf{X} \in \mathbb{R}^{n\times d}$ and noisy observations $\mathbf{y} = \mathbf{X}\mathbf{\theta}^\star + \mathbf{\xi}$ of a signal $\mathbf{\theta}^\star$ drawn from a spike-and-slab prior $\pi$ with a Gaussian diffuse density and expected sparsity k, where $\mathbf{\xi} \sim \mathcal{N}(\mathbb{0}_n, \sigma^2\mathbf{I}_n)$. We give a polynomial-time high-accuracy sampler for the posterior $\pi(\cdot \mid \mathbf{X}, \mathbf{y})$, for any SNR $\sigma^{-1}$ > 0, as long as $n \geq k^3 \cdot \text{polylog}(d)$ and $X$ is drawn from a matrix ensemble satisfying the restricted isometry property. We further give a sampler that runs in near-linear time $\approx nd$ in the same setting, as long as $n \geq k^5 \cdot \text{polylog}(d)$. To demonstrate the flexibility of our framework, we extend our result to spike-and-slab posterior sampling with Laplace diffuse densities, achieving similar guarantees when $\sigma = O(\frac{1}{k})$ is bounded.

arxiv情報

著者 Syamantak Kumar,Purnamrita Sarkar,Kevin Tian,Yusong Zhu
発行日 2025-03-04 17:16:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DS, cs.LG, stat.ME, stat.ML | Spike-and-Slab Posterior Sampling in High Dimensions はコメントを受け付けていません

RAAD-LLM: Adaptive Anomaly Detection Using LLMs and RAG Integration

要約

複雑な産業環境での異常検出は、特にデータスパース性と進化する運用条件を特徴とするコンテキストで、独自の課題をもたらします。
このような設定での予測メンテナンス(PDM)は、ドメイン固有の知識を統合できる適応性があり、移転可能で、導入可能な方法論を要求します。
このホワイトペーパーでは、検索された生成(RAG)と統合された大規模な言語モデル(LLM)を活用する適応異常検出の新しいフレームワークであるRaad-llmを紹介します。
このアプローチは、前述のPDMの課題に対処します。
ドメイン固有の知識を効果的に利用することにより、RAAD-LLMは、特定のデータセットで微調整することなく、時系列データの異常の検出を強化します。
フレームワークの適応性メカニズムにより、通常の動作条件の理解を動的に調整できるため、検出の精度が向上します。
プラスチック製造プラントとSkoltech Anomaly Benchmark(SKAB)の実世界のアプリケーションを通じて、この方法論を検証します。
結果は、現実世界のデータセットで精度が70.7から89.1に増加し、以前のモデルで大幅な改善を示しています。
Semanticsで入力シリーズデータを濃縮することを許可することにより、Raad-llmは、モデルとプラント演算子の間のより協調的な意思決定を促進するマルチモーダル機能を組み込みます。
全体として、我々の調査結果は、PDMの異常検出方法論に革命をもたらすRaad-llmの能力をサポートし、潜在的にさまざまな業界で異常検出がどのように実装されるかのパラダイムシフトにつながります。

要約(オリジナル)

Anomaly detection in complex industrial environments poses unique challenges, particularly in contexts characterized by data sparsity and evolving operational conditions. Predictive maintenance (PdM) in such settings demands methodologies that are adaptive, transferable, and capable of integrating domain-specific knowledge. In this paper, we present RAAD-LLM, a novel framework for adaptive anomaly detection, leveraging large language models (LLMs) integrated with Retrieval-Augmented Generation (RAG). This approach addresses the aforementioned PdM challenges. By effectively utilizing domain-specific knowledge, RAAD-LLM enhances the detection of anomalies in time series data without requiring fine-tuning on specific datasets. The framework’s adaptability mechanism enables it to adjust its understanding of normal operating conditions dynamically, thus increasing detection accuracy. We validate this methodology through a real-world application for a plastics manufacturing plant and the Skoltech Anomaly Benchmark (SKAB). Results show significant improvements over our previous model with an accuracy increase from 70.7 to 89.1 on the real-world dataset. By allowing for the enriching of input series data with semantics, RAAD-LLM incorporates multimodal capabilities that facilitate more collaborative decision-making between the model and plant operators. Overall, our findings support RAAD-LLM’s ability to revolutionize anomaly detection methodologies in PdM, potentially leading to a paradigm shift in how anomaly detection is implemented across various industries.

arxiv情報

著者 Alicia Russell-Gilbert,Sudip Mittal,Shahram Rahimi,Maria Seale,Joseph Jabour,Thomas Arnold,Joshua Church
発行日 2025-03-04 17:20:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 1.6.5, cs.CE, cs.LG | RAAD-LLM: Adaptive Anomaly Detection Using LLMs and RAG Integration はコメントを受け付けていません

Inductive randomness predictors

要約

このペーパーでは、誘導性乱数予測因子を紹介し、誘導コンフォーマル予測因子のスーパーセットを形成します。
その焦点は、非常に単純な特別なケースであるバイナリ誘導ランダム性予測因子にあります。
バイナリ誘導性ランダム性予測因子が、誘導コンフォーマル予測因子よりも利点があることは興味深いことですが、深刻な不利な点もあります。
この利点により、統計的決定理論の意味では、非自明の帰納的コンフォーマル予測因子は容認できないという驚くべき結論に到達することができます。

要約(オリジナル)

This paper introduces inductive randomness predictors, which form a superset of inductive conformal predictors. Its focus is on a very simple special case, binary inductive randomness predictors. It is interesting that binary inductive randomness predictors have an advantage over inductive conformal predictors, although they also have a serious disadvantage. This advantage will allow us to reach the surprising conclusion that non-trivial inductive conformal predictors are inadmissible in the sense of statistical decision theory.

arxiv情報

著者 Vladimir Vovk
発行日 2025-03-04 17:26:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 68T05, cs.LG, stat.ME | Inductive randomness predictors はコメントを受け付けていません

Linear Multidimensional Regression with Interactive Fixed-Effects

要約

このペーパーでは、観察されていないインタラクティブな固定効果を備えた3つ以上の寸法の多次元パネルデータの線形モデルを研究します。
メイン推定器は、二重debiasメソッドを使用しており、2つの予備ステップが必要です。
まず、モデルは2次元パネルフレームワーク内に埋め込まれ、BAI(2009)の因子モデルメソッドが一貫した、しかしゆっくり収束する推定につながります。
2番目のステップは、多次元のインタラクティブな固定効果に堅牢で、一貫性のパラメトリックレートを達成するために、加重された加重変換を開発します。
これは、漸近的に正常な推定値のための二重のDebias手順と組み合わされます。
この方法は、ビールの需要の弾力性を推定するために実装されています。

要約(オリジナル)

This paper studies a linear model for multidimensional panel data of three or more dimensions with unobserved interactive fixed-effects. The main estimator uses double debias methods, and requires two preliminary steps. First, the model is embedded within a two-dimensional panel framework where factor model methods in Bai (2009) lead to consistent, but slowly converging, estimates. The second step develops a weighted-within transformation that is robust to multidimensional interactive fixed-effects and achieves the parametric rate of consistency. This is combined with a double debias procedure for asymptotically normal estimates. The methods are implemented to estimate the demand elasticity for beer.

arxiv情報

著者 Hugo Freeman
発行日 2025-03-04 17:30:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, econ.EM, stat.ME | Linear Multidimensional Regression with Interactive Fixed-Effects はコメントを受け付けていません

A Minimalist Example of Edge-of-Stability and Progressive Sharpening

要約

深い学習最適化の最近の進歩により、大規模な学習率の下で2つの興味深い現象が明らかになりました:安定性(EOS)とプログレッシブシャープニング(PS)、挑戦的な古典勾配降下(GD)分析。
現在の研究アプローチは、ジェネラリストのフレームワークまたはミニマリストの例を使用して、これらの現象を説明する際に大きな制限に直面しています。
このペーパーは、2次元入力を備えた2層ネットワークを導入することにより、ミニマリストのアプローチを進めます。1つの次元は応答に関連し、もう1つの次元は無関係です。
このモデルを通じて、大規模な学習率の下での進行性のシャープ化と自己安定化の存在を厳密に証明し、GD軌道全体に沿ったトレーニングのダイナミクスとシャープネスの非症状分析を確立します。
さらに、ミニマリストとジェネラリストの分析の間の行儀の良い「安定したセット」の存在を調整し、勾配流溶液のシャープネスの分析を2次元入力シナリオに拡張することにより、ミニマリストの例を既存の作品に結び付けます。
これらの調査結果は、パラメーターと入力データ分布の両方の視点からのEOS現象に関する新しい洞察を提供し、深い学習実践におけるより効果的な最適化戦略を通知する可能性があります。

要約(オリジナル)

Recent advances in deep learning optimization have unveiled two intriguing phenomena under large learning rates: Edge of Stability (EoS) and Progressive Sharpening (PS), challenging classical Gradient Descent (GD) analyses. Current research approaches, using either generalist frameworks or minimalist examples, face significant limitations in explaining these phenomena. This paper advances the minimalist approach by introducing a two-layer network with a two-dimensional input, where one dimension is relevant to the response and the other is irrelevant. Through this model, we rigorously prove the existence of progressive sharpening and self-stabilization under large learning rates, and establish non-asymptotic analysis of the training dynamics and sharpness along the entire GD trajectory. Besides, we connect our minimalist example to existing works by reconciling the existence of a well-behaved “stable set’ between minimalist and generalist analyses, and extending the analysis of Gradient Flow Solution sharpness to our two-dimensional input scenario. These findings provide new insights into the EoS phenomenon from both parameter and input data distribution perspectives, potentially informing more effective optimization strategies in deep learning practice.

arxiv情報

著者 Liming Liu,Zixuan Zhang,Simon Du,Tuo Zhao
発行日 2025-03-04 17:35:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | A Minimalist Example of Edge-of-Stability and Progressive Sharpening はコメントを受け付けていません

Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts

要約

スコアベースの生成モデルは、多様なドメイン全体で選択されたモデルですが、推論時間動作を原則的に制御するために利用可能なツールが限られています。
複数の前提型モデルを作成するため。
既存の分類器のないガイダンス方法は、単純なヒューリスティックを使用して、条件付き分布から条件付きおよび無条件のスコアをほぼサンプルに組み合わせます。
ただし、そのような方法は中間分布を近似していないため、追加の「補正」手順が必要です。
この作業では、前提条件のスコアベースモデルから派生したアニール、幾何平均、または製品分布のシーケンスからサンプリングするための効率的で原則的な方法を提供します。
適切な部分微分方程式(PDE)の用語を慎重に考慮することにより、有名なFeynman-KAC式に基づいて、Feynman-Kac補正(FKCS)と呼ばれる加重シミュレーションスキームを導き出します。
これらのPDEをシミュレートするために、順次のモンテカルロ(SMC)の再サンプリングアルゴリズムを提案します。
推論時間温度アニーリングを介して償却サンプリングを提案し、前処理されたモデルを使用した多目的分子生成を改善し、テキストから画像の生成のための分類器のないガイダンスを改善することにより、方法の有用性を経験的に実証します。
私たちのコードは、https://github.com/martaskrt/fkc-diffusionで入手できます。

要約(オリジナル)

While score-based generative models are the model of choice across diverse domains, there are limited tools available for controlling inference-time behavior in a principled manner, e.g. for composing multiple pretrained models. Existing classifier-free guidance methods use a simple heuristic to mix conditional and unconditional scores to approximately sample from conditional distributions. However, such methods do not approximate the intermediate distributions, necessitating additional ‘corrector’ steps. In this work, we provide an efficient and principled method for sampling from a sequence of annealed, geometric-averaged, or product distributions derived from pretrained score-based models. We derive a weighted simulation scheme which we call Feynman-Kac Correctors (FKCs) based on the celebrated Feynman-Kac formula by carefully accounting for terms in the appropriate partial differential equations (PDEs). To simulate these PDEs, we propose Sequential Monte Carlo (SMC) resampling algorithms that leverage inference-time scaling to improve sampling quality. We empirically demonstrate the utility of our methods by proposing amortized sampling via inference-time temperature annealing, improving multi-objective molecule generation using pretrained models, and improving classifier-free guidance for text-to-image generation. Our code is available at https://github.com/martaskrt/fkc-diffusion.

arxiv情報

著者 Marta Skreta,Tara Akhound-Sadegh,Viktor Ohanesian,Roberto Bondesan,Alán Aspuru-Guzik,Arnaud Doucet,Rob Brekelmans,Alexander Tong,Kirill Neklyudov
発行日 2025-03-04 17:46:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts はコメントを受け付けていません

On Separation Between Best-Iterate, Random-Iterate, and Last-Iterate Convergence of Learning in Games

要約

ゲームにおける学習ダイナミクスの非エルゴディック収束は、理論と実践の両方においてその重要性のために最近広く研究されています。
最近の研究(Cai et al。、2024)は、楽観的な多重重量アップデート(OMWU)を含む幅広い学習ダイナミクスが、最後の$ 2 \ Times 2 $マトリックスゲームでも任意の遅い最後の収束を示すことができることを示しました。
ただし、これらのアルゴリズムが、最適な収束など、より弱い基準の下で高速非エルゴードの収束を達成するかどうかは不明のままです。
$ 2 \ Times 2 $ Matrixゲームで、OMWUは同じクラスのゲームでの最終的な収束が遅いこととはまったく対照的に、$ O(T^{-1/6})$のベストサイド収束率を達成していることを示しています。
さらに、OMWUがすべての繰り返しにわたって予想される二重性ギャップで測定された多項式ランダム型収束率を達成しないことを示す下限を確立します。
この結果は、ランダムな収束は本質的に最良の収束と本質的に同等であるという従来の知恵に挑戦し、前者はしばしば後者を確立するためのプロキシとして使用されます。
私たちの分析は、ダイナミックな後悔との新しいつながりを明らかにし、独立した関心がある可能性のある最良の収束に対する新しい2フェーズアプローチを提示します。

要約(オリジナル)

Non-ergodic convergence of learning dynamics in games is widely studied recently because of its importance in both theory and practice. Recent work (Cai et al., 2024) showed that a broad class of learning dynamics, including Optimistic Multiplicative Weights Update (OMWU), can exhibit arbitrarily slow last-iterate convergence even in simple $2 \times 2$ matrix games, despite many of these dynamics being known to converge asymptotically in the last iterate. It remains unclear, however, whether these algorithms achieve fast non-ergodic convergence under weaker criteria, such as best-iterate convergence. We show that for $2\times 2$ matrix games, OMWU achieves an $O(T^{-1/6})$ best-iterate convergence rate, in stark contrast to its slow last-iterate convergence in the same class of games. Furthermore, we establish a lower bound showing that OMWU does not achieve any polynomial random-iterate convergence rate, measured by the expected duality gaps across all iterates. This result challenges the conventional wisdom that random-iterate convergence is essentially equivalent to best-iterate convergence, with the former often used as a proxy for establishing the latter. Our analysis uncovers a new connection to dynamic regret and presents a novel two-phase approach to best-iterate convergence, which could be of independent interest.

arxiv情報

著者 Yang Cai,Gabriele Farina,Julien Grand-Clément,Christian Kroer,Chung-Wei Lee,Haipeng Luo,Weiqiang Zheng
発行日 2025-03-04 17:49:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.LG, math.OC | On Separation Between Best-Iterate, Random-Iterate, and Last-Iterate Convergence of Learning in Games はコメントを受け付けていません