要約
新しいファッション製品の売上予測は、多くのビジネス ダイナミクスを伴う困難な問題であり、従来の予測アプローチでは解決できません。
この論文では、Googleトレンドの時系列の形で外生的な知識を体系的に調査し、それを最新のファッションアイテムに関連するマルチモーダル情報と組み合わせることの有効性を調査し、過去の不足にもかかわらずその売上を効果的に予測します。
データ。
特に、エンコーダーが外因性時系列の表現を学習し、デコーダーが Google トレンドのエンコーディングと利用可能なビジュアルおよびメタデータ情報に基づいて売上を予測する、ニューラル ネットワーク ベースのアプローチを提案します。
私たちのモデルは非自己回帰的な方法で機能し、大きな最初のステップ エラーの複合効果を回避します。
2 番目の貢献として、イタリアのファストファッション企業である Nunalie から 2016 年から 2019 年の間に販売された 5577 の実際の新製品のマルチモーダル情報を含む、新しいファッション製品の販売予測のタスクのための公開データセットである VISUELLE を提示します。
データセットには、製品の画像、メタデータ、関連する売上、関連する Google トレンドが含まれています。
VISUELLE を使用して、私たちのアプローチを最先端の代替案やいくつかのベースラインと比較し、ニューラル ネットワーク ベースのアプローチがパーセンテージと絶対誤差の両方の点で最も正確であることを示しています。
外因性の知識を追加すると、予測精度が WAPE ごとに 1.5% 向上し、有益な外部情報を活用することの重要性が明らかになることは注目に値します。
コードとデータセットはどちらも https://github.com/HumaticsLAB/GTM-Transformer で入手できます。
要約(オリジナル)
New fashion product sales forecasting is a challenging problem that involves many business dynamics and cannot be solved by classical forecasting approaches. In this paper, we investigate the effectiveness of systematically probing exogenous knowledge in the form of Google Trends time series and combining it with multi-modal information related to a brand-new fashion item, in order to effectively forecast its sales despite the lack of past data. In particular, we propose a neural network-based approach, where an encoder learns a representation of the exogenous time series, while the decoder forecasts the sales based on the Google Trends encoding and the available visual and metadata information. Our model works in a non-autoregressive manner, avoiding the compounding effect of large first-step errors. As a second contribution, we present VISUELLE, a publicly available dataset for the task of new fashion product sales forecasting, containing multimodal information for 5577 real, new products sold between 2016-2019 from Nunalie, an Italian fast-fashion company. The dataset is equipped with images of products, metadata, related sales, and associated Google Trends. We use VISUELLE to compare our approach against state-of-the-art alternatives and several baselines, showing that our neural network-based approach is the most accurate in terms of both percentage and absolute error. It is worth noting that the addition of exogenous knowledge boosts the forecasting accuracy by 1.5% WAPE wise, revealing the importance of exploiting informative external information. The code and dataset are both available at https://github.com/HumaticsLAB/GTM-Transformer.
arxiv情報
著者 | Geri Skenderi,Christian Joppi,Matteo Denitto,Marco Cristani |
発行日 | 2022-09-15 12:06:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google