Towards Fleet-wide Sharing of Wind Turbine Condition Information through Privacy-preserving Federated Learning

要約

風力タービン メーカーは、自社のフリートからテラバイト規模のデータを毎日収集しています。
しかし、データへのアクセスと共有が不足していると、データの可能性を最大限に活用することが妨げられます。
私たちは、風力タービンにデータを残すことでデータのプライバシーを保護しながら、ローカル データに対するフリート全体の学習を可能にする分散型機械学習アプローチを紹介します。
私たちは、連合されたフリート全体の学習を通じて、代表的なトレーニング データがほとんどまたはまったくないタービンが、より正確な通常動作モデルから恩恵を受けることができることを示します。
グローバル連合モデルを個々のタービンに合わせてカスタマイズすると、監視対象の変数がフリート全体に不均一に分散している場合に、最高の故障検出精度が得られます。
これを、タービンに応じて通常の動作が大きく異なる可能性がある目標変数である軸受温度について実証します。
私たちのケーススタディでは、連合学習プロセスに参加することでモデルのパフォーマンスが低下するタービンはなく、その結果、連合学習戦略の優れたパフォーマンスが得られることを示しています。
分散学習では、通信オーバーヘッドの増加とモデルの収束の遅延により、通常の動作モデルのトレーニング時間が約 10 倍増加します。

要約(オリジナル)

Terabytes of data are collected by wind turbine manufacturers from their fleets every day. And yet, a lack of data access and sharing impedes exploiting the full potential of the data. We present a distributed machine learning approach that preserves the data privacy by leaving the data on the wind turbines while still enabling fleet-wide learning on those local data. We show that through federated fleet-wide learning, turbines with little or no representative training data can benefit from more accurate normal behavior models. Customizing the global federated model to individual turbines yields the highest fault detection accuracy in cases where the monitored target variable is distributed heterogeneously across the fleet. We demonstrate this for bearing temperatures, a target variable whose normal behavior can vary widely depending on the turbine. We show that no turbine experiences a loss in model performance from participating in the federated learning process, resulting in superior performance of the federated learning strategy in our case studies. The distributed learning increases the normal behavior model training times by about a factor of ten due to increased communication overhead and slower model convergence.

arxiv情報

著者 Lorin Jenkel,Stefan Jonas,Angela Meyer
発行日 2023-07-12 13:07:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク