Hierarchical Neural Additive Models for Interpretable Demand Forecasts

要約

需要予測は、在庫管理から戦略的な施設計画に至るまで、さまざまなビジネス上の意思決定の重要な基礎となります。
機械学習 (ML) アプローチは精度の向上をもたらしますが、その解釈可能性と受け入れやすさが不足していることで知られています。
このジレンマに対処するために、時系列の階層的ニューラル加算モデル (HNAM) を導入します。
HNAM は、レベルと相互作用する共変量コンポーネントを備えた時系列固有の加算モデルを導入することにより、ニューラル加算モデル (NAM) を拡張します。
共変量相互作用は、ユーザー指定の相互作用階層に従ってのみ許可されます。
たとえば、平日の効果は他の共変量とは独立して推定できますが、休日の効果は平日に依存し、追加の昇進は交互作用階層の下位にある両方の共変量に依存する可能性があります。
これにより、HNAM は、アナリストが既知の各共変量の寄与を観察できる直観的な予測インターフェイスを提供します。
私たちは提案されたアプローチを評価し、現実世界の小売データに基づいて他の最先端の機械学習および統計モデルと比較してそのパフォーマンスをベンチマークします。
結果は、HNAM が妥当な説明を提供しながら、競争力のある予測パフォーマンスを提供することを明らかにしています。

要約(オリジナル)

Demand forecasts are the crucial basis for numerous business decisions, ranging from inventory management to strategic facility planning. While machine learning (ML) approaches offer accuracy gains, their interpretability and acceptance are notoriously lacking. Addressing this dilemma, we introduce Hierarchical Neural Additive Models for time series (HNAM). HNAM expands upon Neural Additive Models (NAM) by introducing a time-series specific additive model with a level and interacting covariate components. Covariate interactions are only allowed according to a user-specified interaction hierarchy. For example, weekday effects may be estimated independently of other covariates, whereas a holiday effect may depend on the weekday and an additional promotion may depend on both former covariates that are lower in the interaction hierarchy. Thereby, HNAM yields an intuitive forecasting interface in which analysts can observe the contribution for each known covariate. We evaluate the proposed approach and benchmark its performance against other state-of-the-art machine learning and statistical models extensively on real-world retail data. The results reveal that HNAM offers competitive prediction performance whilst providing plausible explanations.

arxiv情報

著者 Leif Feddersen,Catherine Cleophas
発行日 2024-04-05 12:54:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.LG パーマリンク