auto-sktime: Automated Time Series Forecasting

要約

今日のデータ主導の状況では、時系列予測はさまざまなセクターにわたる意思決定において極めて重要です。
しかし、より多様な時系列データの急増と利用可能な予測手法の拡大は、予測者にとって大きな課題となっています。
効率的な予測に対する需要の高まりに応えるために、自動化された時系列予測のための新しいフレームワークである auto-sktime を導入します。
提案されたフレームワークは、自動機械学習 (AutoML) 技術を利用して、予測パイプライン全体の作成を自動化します。
このフレームワークはベイジアン最適化を採用し、統計、機械学習 (ML)、ディープ ニューラル ネットワーク (DNN) モデルからパイプラインを自動的に構築します。
さらに、AutoML を時系列データに適応させるための 3 つの重要な改善点を提案します。まず、サポートされているさまざまな予測モデルを考慮したパイプライン テンプレートです。
2 つ目は、以前の最適化実行から最適化を開始する新しいウォーム スタート手法です。
3 番目に、マルチ忠実度の最適化を適応させて、統計モデル、ML モデル、DNN モデルを含む検索空間に適用できるようにします。
64 の多様な実世界の時系列データセットに関する実験結果は、人間の関与を最小限に抑えながら従来の手法を上回るフレームワークの有効性と効率性を示しています。

要約(オリジナル)

In today’s data-driven landscape, time series forecasting is pivotal in decision-making across various sectors. Yet, the proliferation of more diverse time series data, coupled with the expanding landscape of available forecasting methods, poses significant challenges for forecasters. To meet the growing demand for efficient forecasting, we introduce auto-sktime, a novel framework for automated time series forecasting. The proposed framework uses the power of automated machine learning (AutoML) techniques to automate the creation of the entire forecasting pipeline. The framework employs Bayesian optimization, to automatically construct pipelines from statistical, machine learning (ML) and deep neural network (DNN) models. Furthermore, we propose three essential improvements to adapt AutoML to time series data: First, pipeline templates to account for the different supported forecasting models. Second, a novel warm-starting technique to start the optimization from prior optimization runs. Third, we adapt multi-fidelity optimizations to make them applicable to a search space containing statistical, ML and DNN models. Experimental results on 64 diverse real-world time series datasets demonstrate the effectiveness and efficiency of the framework, outperforming traditional methods while requiring minimal human involvement.

arxiv情報

著者 Marc-André Zöller,Marius Lindauer,Marco F. Huber
発行日 2023-12-19 17:07:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク