要約
既存の階層型予測手法は、時系列の数が増加すると拡張性が低下します。
階層積や時間構造を直接最適化するスパース損失関数を使用して、単一の最下位予測モデルで数百万の時系列に対する一貫した予測を学習することを提案します。
私たちのスパース階層損失関数の利点は、選択された任意の横断的または時間的階層に一貫した最下位レベルの予測を生成する方法を実務者に提供することです。
さらに、従来の階層型予測手法で必要とされる後処理ステップの必要性がなくなることで、予測パイプラインの予測フェーズの計算コストが削減されます。
公開されている M5 データセットでは、スパース階層損失関数は、ベースライン損失関数と比較して最大 10% (RMSE) 優れたパフォーマンスを示します。
私たちは、ヨーロッパの大規模な電子商取引プラットフォームである bol の既存の予測モデル内にスパース階層損失関数を実装し、その結果、製品レベルで予測パフォーマンスが 2% 向上しました。
最後に、定義した横断的な階層全体で予測パフォーマンスを評価すると、予測パフォーマンスが約 5 ~ 10% 向上することがわかりました。
これらの結果は、主要な電子商取引プラットフォームの生産予測システムに適用されたスパース階層損失の有用性を示しています。
要約(オリジナル)
Existing hierarchical forecasting techniques scale poorly when the number of time series increases. We propose to learn a coherent forecast for millions of time series with a single bottom-level forecast model by using a sparse loss function that directly optimizes the hierarchical product and/or temporal structure. The benefit of our sparse hierarchical loss function is that it provides practitioners a method of producing bottom-level forecasts that are coherent to any chosen cross-sectional or temporal hierarchy. In addition, removing the need for a post-processing step as required in traditional hierarchical forecasting techniques reduces the computational cost of the prediction phase in the forecasting pipeline. On the public M5 dataset, our sparse hierarchical loss function performs up to 10% (RMSE) better compared to the baseline loss function. We implement our sparse hierarchical loss function within an existing forecasting model at bol, a large European e-commerce platform, resulting in an improved forecasting performance of 2% at the product level. Finally, we found an increase in forecasting performance of about 5-10% when evaluating the forecasting performance across the cross-sectional hierarchies that we defined. These results demonstrate the usefulness of our sparse hierarchical loss applied to a production forecasting system at a major e-commerce platform.
arxiv情報
著者 | Olivier Sprangers,Wander Wadman,Sebastian Schelter,Maarten de Rijke |
発行日 | 2023-10-19 15:06:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google