DUNE: Distilling a Universal Encoder from Heterogeneous 2D and 3D Teachers

要約

最近のマルチティーチャー蒸留方法により、複数の基礎モデルのエンコーダーが単一のエンコーダーに統合され、分類、セグメンテーション、深度推定などのコアビジョンタスクの競争力のあるパフォーマンスを達成しました。
これにより、教師のプールには、2Dと3Dの両方の認識における多様なタスクに特化したビジョンモデルも含まれている場合、同様の成功を達成できますか?
この論文では、教師モデルが(a)設計目標と(b)トレーニングされたデータの両方で、教師モデルが大幅に異なる挑戦的なマルチテーカーの蒸留シナリオである、不均一な教師の蒸留または共蒸留の問題を定義および調査します。
データ共有戦略と教師固有のエンコーディングを探求し、2Dビジョン、3D理解、3D人間の知覚に優れている単一のエンコーダーであるDuneを紹介します。
私たちのモデルは、それぞれのタスクで、より大きな教師のパフォーマンスに匹敵するパフォーマンスを達成し、時にはそれらを上回ることさえあります。
特に、Duneは、はるかに小さなエンコーダーを使用して、マップフリーの視覚的再局在化でMAST3Rを上回ります。

要約(オリジナル)

Recent multi-teacher distillation methods have unified the encoders of multiple foundation models into a single encoder, achieving competitive performance on core vision tasks like classification, segmentation, and depth estimation. This led us to ask: Could similar success be achieved when the pool of teachers also includes vision models specialized in diverse tasks across both 2D and 3D perception? In this paper, we define and investigate the problem of heterogeneous teacher distillation, or co-distillation, a challenging multi-teacher distillation scenario where teacher models vary significantly in both (a) their design objectives and (b) the data they were trained on. We explore data-sharing strategies and teacher-specific encoding, and introduce DUNE, a single encoder excelling in 2D vision, 3D understanding, and 3D human perception. Our model achieves performance comparable to that of its larger teachers, sometimes even outperforming them, on their respective tasks. Notably, DUNE surpasses MASt3R in Map-free Visual Relocalization with a much smaller encoder.

arxiv情報

著者 Mert Bulent Sariyildiz,Philippe Weinzaepfel,Thomas Lucas,Pau de Jorge,Diane Larlus,Yannis Kalantidis
発行日 2025-03-24 14:41:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG | DUNE: Distilling a Universal Encoder from Heterogeneous 2D and 3D Teachers はコメントを受け付けていません

Learnability in Online Kernel Selection with Memory Constraint via Data-dependent Regret Analysis

要約

オンラインカーネル選択は、オンラインカーネルメソッドの基本的な問題です。このペーパーでは、カーネルの選択とオンライン予測手順のメモリが固定予算に限定されるメモリの制約を備えたオンラインカーネル選択を研究します。
本質的な疑問は、オンラインの学習性、メモリの制約、およびデータの複雑さの間の本質的な関係は何ですか?
質問に答えるには、後悔とメモリの制約の間のトレードオフを示す必要があります。データサイズに応じて最悪の範囲の下限を与え、小さなメモリの制約内で学習が不可能であることを示します。
2種類の損失関数の境界。ヒンジ損失関数では、アルゴリズムはカーネルのアライメントに応じて予想される上限を達成します。スムーズな損失関数の場合、アルゴリズムは競争力のある仮説の累積損失を達成します。
小さなメモリの制約。私のアルゴリズムフレームワークは、新しいバッファーの維持フレームワークと、専門家のアドバイスを受けてオンラインカーネル選択から予測までの削減に依存します。
最後に、ベンチマークデータセット上のアルゴリズムの予測パフォーマンスを経験的に検証します。

要約(オリジナル)

Online kernel selection is a fundamental problem of online kernel methods.In this paper,we study online kernel selection with memory constraint in which the memory of kernel selection and online prediction procedures is limited to a fixed budget. An essential question is what is the intrinsic relationship among online learnability, memory constraint, and data complexity? To answer the question,it is necessary to show the trade-offs between regret and memory constraint.Previous work gives a worst-case lower bound depending on the data size,and shows learning is impossible within a small memory constraint.In contrast, we present distinct results by offering data-dependent upper bounds that rely on two data complexities:kernel alignment and the cumulative losses of competitive hypothesis.We propose an algorithmic framework giving data-dependent upper bounds for two types of loss functions.For the hinge loss function,our algorithm achieves an expected upper bound depending on kernel alignment.For smooth loss functions,our algorithm achieves a high-probability upper bound depending on the cumulative losses of competitive hypothesis.We also prove a matching lower bound for smooth loss functions.Our results show that if the two data complexities are sub-linear,then learning is possible within a small memory constraint.Our algorithmic framework depends on a new buffer maintaining framework and a reduction from online kernel selection to prediction with expert advice. Finally,we empirically verify the prediction performance of our algorithms on benchmark datasets.

arxiv情報

著者 Junfan Li,Shizhong Liao
発行日 2025-03-24 14:42:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Learnability in Online Kernel Selection with Memory Constraint via Data-dependent Regret Analysis はコメントを受け付けていません

Simulation-Driven Balancing of Competitive Game Levels with Reinforcement Learning

要約

競争力のある2プレイヤーコンテキストでのゲームレベルのバランスプロセスには、特に非対称ゲームレベルの多くの手動作業とテストが含まれます。
この作業では、ゲームゲームのバランスをとり、PCGRLフレームワーク内でタイルベースのレベルの自動バランスをとるためのアーキテクチャを提案します(補強学習を介した手続きコンテンツ生成)。
私たちのアーキテクチャは、(1)レベルジェネレーター、(2)バランシングエージェント、および(3)報酬モデリングシミュレーションの3つの部分に分割されます。
繰り返しのシミュレーションを通じて、バランスエージェントは、すべてのプレーヤーの平等な勝利など、特定のバランスの目的に向けてレベルを調整するための報酬を受け取ります。
この目的のために、プレイ可能性の堅牢性を改善するための新しいスワップベースの表現を提案し、それにより、従来のPCGRLと比較して、エージェントがゲームレベルをより効果的かつ迅速にバランスをとることができます。
エージェントのスワッピング動作を分析することにより、どのタイルタイプがバランスに最も影響を与えるかを推測できます。
競争力のある2プレイヤーシナリオで、ニューラルMMO(NMMO)環境でのアプローチを検証します。
この拡張された会議用紙では、改善された結果を提示し、方法の適用性を、平等のバランスを越えてバランスをとるさまざまな形態のバランスへの適用性を調査し、パフォーマンスを別の検索ベースのアプローチと比較し、既存の公平性メトリックの適用をゲームバランスに議論します。

要約(オリジナル)

The balancing process for game levels in competitive two-player contexts involves a lot of manual work and testing, particularly for non-symmetrical game levels. In this work, we frame game balancing as a procedural content generation task and propose an architecture for automatically balancing of tile-based levels within the PCGRL framework (procedural content generation via reinforcement learning). Our architecture is divided into three parts: (1) a level generator, (2) a balancing agent, and (3) a reward modeling simulation. Through repeated simulations, the balancing agent receives rewards for adjusting the level towards a given balancing objective, such as equal win rates for all players. To this end, we propose new swap-based representations to improve the robustness of playability, thereby enabling agents to balance game levels more effectively and quickly compared to traditional PCGRL. By analyzing the agent’s swapping behavior, we can infer which tile types have the most impact on the balance. We validate our approach in the Neural MMO (NMMO) environment in a competitive two-player scenario. In this extended conference paper, we present improved results, explore the applicability of the method to various forms of balancing beyond equal balancing, compare the performance to another search-based approach, and discuss the application of existing fairness metrics to game balancing.

arxiv情報

著者 Florian Rupp,Manuel Eberhardinger,Kai Eckert
発行日 2025-03-24 14:57:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Simulation-Driven Balancing of Competitive Game Levels with Reinforcement Learning はコメントを受け付けていません

On the Optimality of Single-label and Multi-label Neural Network Decoders

要約

前方エラー補正のためにデコーダとして最近提案された2つのニューラルネットワーク(NN)アーキテクチャの設計を調査します:いわゆるシングルラベルNN(SLNN)およびマルチラベルNN(MLNN)デコーダー。
これらのデコーダーは、それぞれ最適なコードワードとビットワイズのパフォーマンスを達成することが報告されています。
文献の結果は、さまざまな短いコードの最適性に近いことを示しています。
この論文では、特定のSLNNおよびMLNNアーキテクチャが、実際には、コードに関係なく、常に最適なデコードを実現できることを分析的に証明します。
これらの最適なアーキテクチャとそのバイナリの重みは、コードブックによって定義されることが示されています。つまり、トレーニングやネットワークの最適化は必要ありません。
提案されているアーキテクチャは、実際にはNNSではなく、最尤デコードルールを実装する別の方法です。
最適なパフォーマンスは、$(7,4)$、Polar $(16,8)$、およびBCH $(31,21)$コードをハミングするために数値的に実証されています。
結果は、私たちの最適なアーキテクチャは、文献で提案されているSLNNおよびMLNNアーキテクチャよりも複雑ではないことを示しています。
より長いコードへの拡張は、次元の呪いによってまだ妨げられています。
したがって、SLNNとMLNNは最尤デコードを実行できますが、そのようなアーキテクチャは中程度および長いコードに使用することはできません。

要約(オリジナル)

We investigate the design of two neural network (NN) architectures recently proposed as decoders for forward error correction: the so-called single-label NN (SLNN) and multi-label NN (MLNN) decoders. These decoders have been reported to achieve near-optimal codeword- and bit-wise performance, respectively. Results in the literature show near-optimality for a variety of short codes. In this paper, we analytically prove that certain SLNN and MLNN architectures can, in fact, always realize optimal decoding, regardless of the code. These optimal architectures and their binary weights are shown to be defined by the codebook, i.e., no training or network optimization is required. Our proposed architectures are in fact not NNs, but a different way of implementing the maximum likelihood decoding rule. Optimal performance is numerically demonstrated for Hamming $(7,4)$, Polar $(16,8)$, and BCH $(31,21)$ codes. The results show that our optimal architectures are less complex than the SLNN and MLNN architectures proposed in the literature, which in fact only achieve near-optimal performance. Extension to longer codes is still hindered by the curse of dimensionality. Therefore, even though SLNN and MLNN can perform maximum likelihood decoding, such architectures cannot be used for medium and long codes.

arxiv情報

著者 Yunus Can Gültekin,Péter Scheepers,Yuncheng Yuan,Federico Corradi,Alex Alvarado
発行日 2025-03-24 15:07:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | On the Optimality of Single-label and Multi-label Neural Network Decoders はコメントを受け付けていません

Beyond Training: Dynamic Token Merging for Zero-Shot Video Understanding

要約

マルチモーダル大手言語モデル(MLLM)の最近の進歩により、ビデオ理解のための新しい道が開かれました。
ただし、ゼロショットビデオタスクで高い忠実度を達成することは依然として困難です。
従来のビデオ処理方法は、微調整に大きく依存して、重要なデータと計算コストが発生する微妙な空間的詳細をキャプチャします。
対照的に、トレーニングのないアプローチは、効率的ですが、複雑なビデオコンテンツ全体でコンテキストが豊富な機能を維持することに堅牢性を欠いていることがよくあります。
この目的のために、重要なシーンの詳細を維持しながらトークン効率を適応的に最適化するゼロショットビデオ理解のための新しい動的トークンマージフレームワークであるDytoを提案します。
Dytoは、階層的なフレーム選択と二部トークンのマージ戦略を統合して、キーフレームを動的にクラスター化し、トークンシーケンスを選択的に圧縮し、計算効率とセマンティックな豊かさのバランスを取ります。
複数のベンチマークにわたる広範な実験は、Dytoの有効性を示しており、微調整された方法とトレーニングのない方法の両方と比較して優れた性能を達成し、ゼロショットビデオ理解のための新しい最先端の設定を実現しています。

要約(オリジナル)

Recent advancements in multimodal large language models (MLLMs) have opened new avenues for video understanding. However, achieving high fidelity in zero-shot video tasks remains challenging. Traditional video processing methods rely heavily on fine-tuning to capture nuanced spatial-temporal details, which incurs significant data and computation costs. In contrast, training-free approaches, though efficient, often lack robustness in preserving context-rich features across complex video content. To this end, we propose DYTO, a novel dynamic token merging framework for zero-shot video understanding that adaptively optimizes token efficiency while preserving crucial scene details. DYTO integrates a hierarchical frame selection and a bipartite token merging strategy to dynamically cluster key frames and selectively compress token sequences, striking a balance between computational efficiency with semantic richness. Extensive experiments across multiple benchmarks demonstrate the effectiveness of DYTO, achieving superior performance compared to both fine-tuned and training-free methods and setting a new state-of-the-art for zero-shot video understanding.

arxiv情報

著者 Yiming Zhang,Zhuokai Zhao,Zhaorun Chen,Zenghui Ding,Xianjun Yang,Yining Sun
発行日 2025-03-24 15:08:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG | Beyond Training: Dynamic Token Merging for Zero-Shot Video Understanding はコメントを受け付けていません

Optimal Approximation of Zonoids and Uniform Approximation by Shallow Neural Networks

要約

次の2つの関連する問題を研究します。
1つ目は、$ \ mathbb {r}^{d+1} $の任意のゾーノイドが$ n $ lineセグメントの合計で近似できる程度を決定することです。
2つ目は、バリエーションスペースの浅いrelu $^k $ニューラルネットワークの均一な規範の最適な近似速度を決定することです。
これらの問題の最初は$ d \ neq 2,3 $で解決されましたが、$ d = 2,3 $の場合、最良の上限と下限の間の対数ギャップは残ります。
このギャップを閉じます。これにより、すべての次元でソリューションが完了します。
2番目の問題では、我々の手法は、$ k \ geq 1 $の場合、既存の近似率を大幅に改善し、ターゲット関数とその導関数の両方の均一な近似を有効にします。

要約(オリジナル)

We study the following two related problems. The first is to determine to what error an arbitrary zonoid in $\mathbb{R}^{d+1}$ can be approximated in the Hausdorff distance by a sum of $n$ line segments. The second is to determine optimal approximation rates in the uniform norm for shallow ReLU$^k$ neural networks on their variation spaces. The first of these problems has been solved for $d\neq 2,3$, but when $d=2,3$ a logarithmic gap between the best upper and lower bounds remains. We close this gap, which completes the solution in all dimensions. For the second problem, our techniques significantly improve upon existing approximation rates when $k\geq 1$, and enable uniform approximation of both the target function and its derivatives.

arxiv情報

著者 Jonathan W. Siegel
発行日 2025-03-24 15:08:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 41A25, 41A46, 52A21, 68T07, cs.LG, cs.NA, math.NA, stat.ML | Optimal Approximation of Zonoids and Uniform Approximation by Shallow Neural Networks はコメントを受け付けていません

On Using Certified Training towards Empirical Robustness

要約

敵対的な訓練は、おそらく特定の敵対例に対して経験的堅牢性を提供する最も一般的な方法です。
マルチステップ攻撃に基づくバリエーションは重要な計算オーバーヘッドが発生しますが、シングルステップのバリエーションは壊滅的な過剰適合として知られる故障モードに対して脆弱であり、大きな摂動の実用的な有用性を妨げます。
並行した作業ラインである認定トレーニングは、可能な攻撃に対する堅牢性の正式な保証に適したネットワークの生産に焦点を当てています。
ただし、最高のパフォーマンスを発揮する経験的および認定された防御の間の広いギャップにより、後者の適用性が厳しく制限されています。
敵対的な攻撃とネットワークの過剰近接の組み合わせに依存している認定トレーニングの最近の開発、および局所的な線形性と壊滅的なオーバーフィッティングの関係に依存していることに触発され、実用的な実用性と、経験的堅牢性に向けて認定トレーニングを使用することの制限に関する実験的証拠を提示します。
目的のために調整された場合、最近の認定トレーニングアルゴリズムは、シングルステップ攻撃に対する壊滅的な過剰適合を防ぎ、適切な実験設定の下でマルチステップベースラインへのギャップを埋めることができることを示します。
最後に、ランタイムを著しく削減しながら同様の効果を達成できるネットワークの過剰近接のための概念的にシンプルな正規者を提示します。

要約(オリジナル)

Adversarial training is arguably the most popular way to provide empirical robustness against specific adversarial examples. While variants based on multi-step attacks incur significant computational overhead, single-step variants are vulnerable to a failure mode known as catastrophic overfitting, which hinders their practical utility for large perturbations. A parallel line of work, certified training, has focused on producing networks amenable to formal guarantees of robustness against any possible attack. However, the wide gap between the best-performing empirical and certified defenses has severely limited the applicability of the latter. Inspired by recent developments in certified training, which rely on a combination of adversarial attacks with network over-approximations, and by the connections between local linearity and catastrophic overfitting, we present experimental evidence on the practical utility and limitations of using certified training towards empirical robustness. We show that, when tuned for the purpose, a recent certified training algorithm can prevent catastrophic overfitting on single-step attacks, and that it can bridge the gap to multi-step baselines under appropriate experimental settings. Finally, we present a conceptually simple regularizer for network over-approximations that can achieve similar effects while markedly reducing runtime.

arxiv情報

著者 Alessandro De Palma,Serge Durand,Zakaria Chihani,François Terrier,Caterina Urban
発行日 2025-03-24 15:14:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, stat.ML | On Using Certified Training towards Empirical Robustness はコメントを受け付けていません

Quantifying Climate Change Impacts on Renewable Energy Generation: A Super-Resolution Recurrent Diffusion Model

要約

グローバルな気候変動と進行中のエネルギー移行に起因する、電源能力と気象要因の間の結合がますます重要になっています。
長期にわたって、気候変動の影響下で再生可能エネルギーの発電を正確に定量化することは、持続可能な電力システムの開発に不可欠です。
ただし、データ要件の学際的な違いにより、気候データには、再生可能エネルギー資源の短期的なばらつきと不確実性をキャプチャするために必要な1時間ごとの解決がしばしば欠けています。
この制限に対処するために、気候データの時間的解像度を強化し、短期の不確実性をモデル化するために、超解像度の再発拡散モデル(SRDM)が開発されました。
SRDMには、事前に訓練されたデコーダーと除去ネットワークが組み込まれており、再発カップリングメカニズムを通じて長期的な高解像度の気候データを生成します。
高解像度の気候データは、メカニズムモデルを使用して電力値に変換され、将来の長期スケールでの風力と太陽光発電(PV)の発電のシミュレーションが可能になります。
ケーススタディは、中国の内モンゴルのエジナ地域で実施され、第5世代の再分析(ERA5)と2つの気候経路であるSSP126およびSSP585の結合モデル相互比較プロジェクト(CMIP6)データを使用して実施されました。
結果は、SRDMが超解像度の気候データを生成する際に既存の生成モデルよりも優れていることを示しています。
さらに、この研究では、低解像度の気候データが電力変換に使用されるときに導入された推定バイアスを強調しています。

要約(オリジナル)

Driven by global climate change and the ongoing energy transition, the coupling between power supply capabilities and meteorological factors has become increasingly significant. Over the long term, accurately quantifying the power generation of renewable energy under the influence of climate change is essential for the development of sustainable power systems. However, due to interdisciplinary differences in data requirements, climate data often lacks the necessary hourly resolution to capture the short-term variability and uncertainties of renewable energy resources. To address this limitation, a super-resolution recurrent diffusion model (SRDM) has been developed to enhance the temporal resolution of climate data and model the short-term uncertainty. The SRDM incorporates a pre-trained decoder and a denoising network, that generates long-term, high-resolution climate data through a recurrent coupling mechanism. The high-resolution climate data is then converted into power value using the mechanism model, enabling the simulation of wind and photovoltaic (PV) power generation on future long-term scales. Case studies were conducted in the Ejina region of Inner Mongolia, China, using fifth-generation reanalysis (ERA5) and coupled model intercomparison project (CMIP6) data under two climate pathways: SSP126 and SSP585. The results demonstrate that the SRDM outperforms existing generative models in generating super-resolution climate data. Furthermore, the research highlights the estimation biases introduced when low-resolution climate data is used for power conversion.

arxiv情報

著者 Xiaochong Dong,Jun Dan,Yingyun Sun,Yang Liu,Xuemin Zhang,Shengwei Mei
発行日 2025-03-24 15:22:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | Quantifying Climate Change Impacts on Renewable Energy Generation: A Super-Resolution Recurrent Diffusion Model はコメントを受け付けていません

Sample-Efficient Reinforcement Learning of Koopman eNMPC

要約

強化学習(RL)を使用して、ポリシーの目的関数または状態境界などの制約の動的モデルまたはパラメーターを最適化することにより、特定のコントロールタスクで最適なパフォーマンスのために、データ駆動型の(経済的)非線形モデル予測コントローラー((e)NMPCS)を調整できます。
ただし、RLのサンプル効率は非常に重要であり、それを改善するために、モデルベースのRLアルゴリズムと、Koopman(E)NMPCを自動的に微分可能なポリシーに変える公開された方法を組み合わせます。
文献からの連続攪拌タンク反応器(CSTR)モデルのENMPCケーススタディにアプローチを適用します。
このアプローチは、ベンチマークメソッド、つまり、得られたポリシーのさらなるRLチューニングなしでシステム識別に基づいてモデルを使用したデータ駆動型ENMPC、および優れたコントロールパフォーマンスとより高いサンプル効率を達成することにより、モデルベースのRLでトレーニングされたニューラルネットワークコントローラーを上回ります。
さらに、物理学に基づいた学習を介してシステムのダイナミクスに関する部分的な事前知識を利用すると、サンプル効率がさらに向上します。

要約(オリジナル)

Reinforcement learning (RL) can be used to tune data-driven (economic) nonlinear model predictive controllers ((e)NMPCs) for optimal performance in a specific control task by optimizing the dynamic model or parameters in the policy’s objective function or constraints, such as state bounds. However, the sample efficiency of RL is crucial, and to improve it, we combine a model-based RL algorithm with our published method that turns Koopman (e)NMPCs into automatically differentiable policies. We apply our approach to an eNMPC case study of a continuous stirred-tank reactor (CSTR) model from the literature. The approach outperforms benchmark methods, i.e., data-driven eNMPCs using models based on system identification without further RL tuning of the resulting policy, and neural network controllers trained with model-based RL, by achieving superior control performance and higher sample efficiency. Furthermore, utilizing partial prior knowledge about the system dynamics via physics-informed learning further increases sample efficiency.

arxiv情報

著者 Daniel Mayfrank,Mehmet Velioglu,Alexander Mitsos,Manuel Dahmen
発行日 2025-03-24 15:35:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | Sample-Efficient Reinforcement Learning of Koopman eNMPC はコメントを受け付けていません

Streaming Federated Learning with Markovian Data

要約

Federated Learning(FL)は、コミュニケーション効率の高い共同学習の重要なフレームワークとして認識されています。
ただし、ほとんどの理論的および経験的研究は、クライアントが事前に収集されたデータセットにアクセスできるという仮定に依存しており、クライアントが継続的にデータを収集するシナリオの調査が限られています。
多くの現実世界のアプリケーションでは、特に物理的または生物学的プロセスによってデータが生成される場合、クライアントデータストリームはしばしば非定常マルコフプロセスによってモデル化されます。
Standard I.I.D.とは異なります。
サンプリング、マルコフのデータストリームを使用したFLのパフォーマンスは、クライアントサンプル間の統計的依存関係により、時間の経過とともに統計的依存関係があるため、あまり理解されていません。
この論文では、FLがマルコフのデータストリームとの共同学習をサポートできるかどうかを調査します。
具体的には、MiniBatch SGD、ローカルSGD、および局所SGDのバリアントのパフォーマンスをMomentumの分析します。
標準的な仮定とスムーズな非凸クライアントの目標の下で肯定的に答えます。サンプルの複雑さは、i.i.d。
シナリオ。
ただし、マルコフのデータストリームのサンプルの複雑さは、I.I.Dの場合よりも高いままです。
サンプリング。

要約(オリジナル)

Federated learning (FL) is now recognized as a key framework for communication-efficient collaborative learning. Most theoretical and empirical studies, however, rely on the assumption that clients have access to pre-collected data sets, with limited investigation into scenarios where clients continuously collect data. In many real-world applications, particularly when data is generated by physical or biological processes, client data streams are often modeled by non-stationary Markov processes. Unlike standard i.i.d. sampling, the performance of FL with Markovian data streams remains poorly understood due to the statistical dependencies between client samples over time. In this paper, we investigate whether FL can still support collaborative learning with Markovian data streams. Specifically, we analyze the performance of Minibatch SGD, Local SGD, and a variant of Local SGD with momentum. We answer affirmatively under standard assumptions and smooth non-convex client objectives: the sample complexity is proportional to the inverse of the number of clients with a communication complexity comparable to the i.i.d. scenario. However, the sample complexity for Markovian data streams remains higher than for i.i.d. sampling.

arxiv情報

著者 Tan-Khiem Huynh,Malcolm Egan,Giovanni Neglia,Jean-Marie Gorce
発行日 2025-03-24 15:49:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Streaming Federated Learning with Markovian Data はコメントを受け付けていません