Machine learning based iterative learning control for non-repetitive time-varying systems

要約

非繰り返し時変パラメータを持つ時変システム (TVS) の繰り返し追跡タスク (非繰り返し TVS とも呼ばれます) は、この論文では反復学習制御 (ILC) を使用して実現されます。
ILC パフォーマンスを向上させるために、現在の試行情報のみを使用して各 ILC 試行で名目モデルを更新する線形回帰手法を利用する機械学習 (ML) ベースの名目モデル更新メカニズムが、非反復 TVS に対して提案されています。
ML メカニズムによりモデルの不確実性が ILC のロバスト許容範囲内に留まるよう強制されることを考慮して、非反復 TVS に対処するための ILC 更新則が提案されています。
望ましい総合パフォーマンスを達成するために ML および ILC アルゴリズム内のパラメーターを調整する方法も提供されます。
提案手法のロバスト性と信頼性をシミュレーションにより検証する。
現在の最新鋭と比較すると、制御精度の点で優れた制御性能を示しています。
この論文は、時不変システムから非反復 TVS まで ILC アプリケーションを拡張し、ML 回帰手法を採用して 2 つの ILC 試行間の非反復時変パラメーターを推定し、望ましいパフォーマンスを達成するための詳細なパラメーター調整メカニズムを提案します。これが主な貢献です。

要約(オリジナル)

The repetitive tracking task for time-varying systems (TVSs) with non-repetitive time-varying parameters, which is also called non-repetitive TVSs, is realized in this paper using iterative learning control (ILC). A machine learning (ML) based nominal model update mechanism, which utilizes the linear regression technique to update the nominal model at each ILC trial only using the current trial information, is proposed for non-repetitive TVSs in order to enhance the ILC performance. Given that the ML mechanism forces the model uncertainties to remain within the ILC robust tolerance, an ILC update law is proposed to deal with non-repetitive TVSs. How to tune parameters inside ML and ILC algorithms to achieve the desired aggregate performance is also provided. The robustness and reliability of the proposed method are verified by simulations. Comparison with current state-of-the-art demonstrates its superior control performance in terms of controlling precision. This paper broadens ILC applications from time-invariant systems to non-repetitive TVSs, adopts ML regression technique to estimate non-repetitive time-varying parameters between two ILC trials and proposes a detailed parameter tuning mechanism to achieve desired performance, which are the main contributions.

arxiv情報

著者 Yiyang Chen,Wei Jiang,Themistoklis Charalambous
発行日 2023-05-29 16:04:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY パーマリンク