要約
このペーパーでは、データが多数のデバイスに分散されるフェデレーテッド設定では本質的に非凸型かつ非スムーズであるローカリゼーションの問題に対処します。
フェデレーテッド環境の分散型の性質により、分散学習はスケーラビリティと適応性に不可欠になります。
さらに、これらの環境は外れ値データに悩まされることが多く、特に推定精度の維持とアルゴリズムの収束の確保において、従来の方法に大きな課題をもたらします。
これらの課題を軽減するために、これらの障害を処理するように明示的に設計された、分散サブ勾配フレームワーク内で $L_1$ ノルムのロバストな定式化を採用する方法を提案します。
私たちのアプローチは、反復的な単純化や近似に頼ることなく、元の形式で問題に対処するため、計算効率が向上し、推定精度が向上します。
私たちの方法が静止点に収束することを実証し、その有効性と信頼性を強調します。
数値シミュレーションを通じて、特に異常値の多い環境において、既存の最先端の位置特定手法を上回る、私たちのアプローチの優れたパフォーマンスが確認されました。
要約(オリジナル)
This paper addresses the problem of localization, which is inherently non-convex and non-smooth in a federated setting where the data is distributed across a multitude of devices. Due to the decentralized nature of federated environments, distributed learning becomes essential for scalability and adaptability. Moreover, these environments are often plagued by outlier data, which presents substantial challenges to conventional methods, particularly in maintaining estimation accuracy and ensuring algorithm convergence. To mitigate these challenges, we propose a method that adopts an $L_1$-norm robust formulation within a distributed sub-gradient framework, explicitly designed to handle these obstacles. Our approach addresses the problem in its original form, without resorting to iterative simplifications or approximations, resulting in enhanced computational efficiency and improved estimation accuracy. We demonstrate that our method converges to a stationary point, highlighting its effectiveness and reliability. Through numerical simulations, we confirm the superior performance of our approach, notably in outlier-rich environments, which surpasses existing state-of-the-art localization methods.
arxiv情報
著者 | Reza Mirzaeifard,Naveen K. D. Venkategowda,Stefan Werner |
発行日 | 2023-08-31 13:54:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google