要約
この研究では、トランスファーラーニング(TL)とフェデレートラーニング(FL)を区分的に組み合わせて、パワーコンバーターの熱機械学習(ML)モデルを適応させるための代替フレームワーク構成を調査します。
このアプローチは、さまざまな運用条件、データ共有の制限、セキュリティへの影響などの課題に本質的に対処しています。
フレームワークは、3つの最先端のドメイン適応手法を適応させることにより、複数のクライアントが徐々に適合させるベースモデルから始まります:微調整、転送コンポーネント分析(TCA)、およびディープドメイン適応(DDA)。
フラワーフレームワークは、凝集のためのフェデレーション平均化を使用して、FLに採用されています。
フィールドデータを使用した検証は、微調整が高精度で簡単なTLアプローチを提供し、実用的なアプリケーションに適していることを示しています。
ベンチマークの結果は、これらの方法の包括的な比較を明らかにし、異なるシナリオに適用された場合のそれぞれの長所と短所を紹介します。
地元でホストされたFLは、データの集約が実行不可能な場合にパフォーマンスを向上させますが、クラウドベースのFLはクライアント数が大幅に増加し、スケーラビリティと接続性の課題に対処することでより実用的になります。
要約(オリジナル)
This study explores alternative framework configurations for adapting thermal machine learning (ML) models for power converters by combining transfer learning (TL) and federated learning (FL) in a piecewise manner. This approach inherently addresses challenges such as varying operating conditions, data sharing limitations, and security implications. The framework starts with a base model that is incrementally adapted by multiple clients via adapting three state-of-the-art domain adaptation techniques: Fine-tuning, Transfer Component Analysis (TCA), and Deep Domain Adaptation (DDA). The Flower framework is employed for FL, using Federated Averaging for aggregation. Validation with field data demonstrates that fine-tuning offers a straightforward TL approach with high accuracy, making it suitable for practical applications. Benchmarking results reveal a comprehensive comparison of these methods, showcasing their respective strengths and weaknesses when applied in different scenarios. Locally hosted FL enhances performance when data aggregation is not feasible, while cloud-based FL becomes more practical with a significant increase in the number of clients, addressing scalability and connectivity challenges.
arxiv情報
著者 | Panagiotis Kakosimos,Alireza Nemat Saberi,Luca Peretti |
発行日 | 2025-04-23 16:39:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google