Learning production functions for supply chains with graph neural networks

要約

世界経済はサプライチェーンネットワーク上の商品の流れに依存しており、ノードは企業、エッジは企業間の取引となります。
私たちはこれらの外部取引を観察することはできますが、それらは目に見えない生産機能によって支配されており、企業が受け取った投入製品を内部でどのようにして販売する出力製品に変換するかを決定します。
この状況では、これらの生産機能を推測し、サプライ チェーンをより深く理解して改善し、将来の取引をより正確に予測することが非常に有益です。
ただし、既存のグラフ ニューラル ネットワーク (GNN) は、ノードの入力と出力間のこれらの隠された関係を捕捉できません。
ここでは、時間的 GNN と新しい在庫モジュールを組み合わせることにより、この設定用の新しいクラスのモデルを導入します。このモジュールは、アテンションの重みと特別な損失関数を介して生産関数を学習します。
私たちは、新しいオープンソース シミュレーターである SupplySim から生成されたデータとともに、実際のサプライ チェーン データに基づいてモデルを広範囲に評価します。
当社のモデルは、ベースラインより 6 ~ 50% 改善して生産機能を推測することに成功し、実際のデータと合成データに基づいて将来のトランザクションを予測し、ベースラインを 11 ~ 62% 上回りました。

要約(オリジナル)

The global economy relies on the flow of goods over supply chain networks, with nodes as firms and edges as transactions between firms. While we may observe these external transactions, they are governed by unseen production functions, which determine how firms internally transform the input products they receive into output products that they sell. In this setting, it can be extremely valuable to infer these production functions, to better understand and improve supply chains, and to forecast future transactions more accurately. However, existing graph neural networks (GNNs) cannot capture these hidden relationships between nodes’ inputs and outputs. Here, we introduce a new class of models for this setting, by combining temporal GNNs with a novel inventory module, which learns production functions via attention weights and a special loss function. We evaluate our models extensively on real supply chains data, along with data generated from our new open-source simulator, SupplySim. Our models successfully infer production functions, with a 6-50% improvement over baselines, and forecast future transactions on real and synthetic data, outperforming baselines by 11-62%.

arxiv情報

著者 Serina Chang,Zhiyin Lin,Benjamin Yan,Swapnil Bembde,Qi Xiu,Chi Heem Wong,Yu Qin,Frank Kloster,Alex Luo,Raj Palleti,Jure Leskovec
発行日 2024-07-26 14:32:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, cs.SI パーマリンク