Surrogate uncertainty estimation for your time series forecasting black-box: learn when to trust

要約

機械学習モデルは、時系列予測において重要な役割を果たします。
ただし、これらのモデルは、点不確かさの推定という重要な要素を見落とすことがよくあります。
これらの推定値を組み込むことは、効果的なリスク管理、情報に基づいたモデルの選択、意思決定にとって非常に重要です。この問題に対処するために、私たちの研究では不確実性推定方法を導入しています。
代理ガウス過程回帰モデルを採用します。
これは、合理的な不確実性推定値を使用して基本回帰モデルを強化します。
このアプローチは、その計算効率の点で際立っています。
1 つの補助サロゲートをトレーニングするだけで済み、データ固有の仮定が回避されます。
さらに、この作業方法では、ブラック ボックスとしてのベース モデルとそのそれぞれのトレーニング データの存在のみが必要です。
私たちのアプローチの有効性は実験結果によって裏付けられています。
さまざまな時系列予測データを使用すると、サロゲート モデル ベースの手法により、より正確な信頼区間が得られることがわかりました。
これらの技術は、媒体データ領域ではブートストラップ ベースの方法と組み込みの方法の両方よりも優れたパフォーマンスを発揮します。
この優位性は、線形回帰、ARIMA、勾配ブースティング、ニューラル ネットワークなど、さまざまな基本モデル タイプにわたって維持されます。

要約(オリジナル)

Machine learning models play a vital role in time series forecasting. These models, however, often overlook an important element: point uncertainty estimates. Incorporating these estimates is crucial for effective risk management, informed model selection, and decision-making.To address this issue, our research introduces a method for uncertainty estimation. We employ a surrogate Gaussian process regression model. It enhances any base regression model with reasonable uncertainty estimates. This approach stands out for its computational efficiency. It only necessitates training one supplementary surrogate and avoids any data-specific assumptions. Furthermore, this method for work requires only the presence of the base model as a black box and its respective training data. The effectiveness of our approach is supported by experimental results. Using various time-series forecasting data, we found that our surrogate model-based technique delivers significantly more accurate confidence intervals. These techniques outperform both bootstrap-based and built-in methods in a medium-data regime. This superiority holds across a range of base model types, including a linear regression, ARIMA, gradient boosting and a neural network.

arxiv情報

著者 Leonid Erlygin,Vladimir Zholobov,Valeriia Baklanova,Evgeny Sokolovskiy,Alexey Zaytsev
発行日 2024-09-10 09:48:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク