Uncertainty Quantification of Data-Driven Output Predictors in the Output Error Setting

要約

動作設定で (パラメトリック モデルを使用せずに) オフライン入出力データを直接使用して、LTI システムの出力を予測する問題を再検討します。
既存の研究では、入力信号と出力信号の最近のサンプルをオフライン入出力データで構成されるハンケル行列の列スパンに投影することによって出力予測を計算します。
ただし、オフライン データがノイズによって破損している場合、出力予測は正確ではなくなります。
一部の先行研究では、切り捨て特異値分解などの行列の下位近似ヒューリスティックを通じてノイズの多いデータを軽減することが提案されていますが、その後の予測精度は定量化されていないままです。
この論文では、ノイズがオフライン データの大きさに比べて十分に小さいという条件の下で、予測誤差に 2 つの上限を導入することでこれらのギャップを埋めています。
最初の限界は生のオフライン データを直接使用した予測に関係し、2 番目の限界は低ランクの近似ヒューリスティックの場合に適用されます。
特に、境界はシステム出力に関するグランドトゥルースを必要とせず、既知のノイズレベルとシステム次数によるノイズの多い測定値のみに依存します。
広範な数値シミュレーションにより、両方の境界がノイズ レベルの関数として単調 (および線形) に減少することが示されています。
さらに、私たちの結果は、出力誤差設定にノイズ除去ヒューリスティックを適用しても、一般に、生データを直接使用する場合と比較して予測精度が向上するわけではなく、予測誤差の上限が小さくなるわけでもないことを示しています。
ただし、最初の上限にはハンケル行列の分割に関する特定の条件が必要であるため、より一般的な上限が考慮されます。

要約(オリジナル)

We revisit the problem of predicting the output of an LTI system directly using offline input-output data (and without the use of a parametric model) in the behavioral setting. Existing works calculate the output predictions by projecting the recent samples of the input and output signals onto the column span of a Hankel matrix consisting of the offline input-output data. However, if the offline data is corrupted by noise, the output prediction is no longer exact. While some prior works propose mitigating noisy data through matrix low-ranking approximation heuristics, such as truncated singular value decomposition, the ensuing prediction accuracy remains unquantified. This paper fills these gaps by introducing two upper bounds on the prediction error under the condition that the noise is sufficiently small relative to the offline data’s magnitude. The first bound pertains to prediction using the raw offline data directly, while the second one applies to the case of low-ranking approximation heuristic. Notably, the bounds do not require the ground truth about the system output, relying solely on noisy measurements with a known noise level and system order. Extensive numerical simulations show that both bounds decrease monotonically (and linearly) as a function of the noise level. Furthermore, our results demonstrate that applying the de-noising heuristic in the output error setup does not generally lead to a better prediction accuracy as compared to using raw data directly, nor a smaller upper bound on the prediction error. However, it allows for a more general upper bound, as the first upper bound requires a specific condition on the partitioning of the Hankel matrix.

arxiv情報

著者 Farzan Kaviani,Ivan Markovsky,Hamid R. Ossareh
発行日 2024-04-23 14:52:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY パーマリンク