Large Language Models for Supply Chain Optimization

要約

サプライチェーンの運営には従来、さまざまな複雑な意思決定の問題が伴います。
過去数十年にわたり、サプライ チェーンはコンピュータの進歩から大きな恩恵を受け、手動処理から自動化とコスト効率の高い最適化への移行が可能になりました。
それにもかかわらず、事業者は最適化の結果を関係者に説明し、解釈するために依然として多大な労力を費やす必要があります。
大規模言語モデル (LLM) の最近の進歩を動機として、私たちは、この破壊的なテクノロジーがサプライ チェーンの自動化と人間の理解および信頼の間のギャップをどのように埋めるのに役立つかを研究しています。
私たちは OptiGuide を設計します。これは、入力クエリとしてプレーンテキストで受け入れ、基礎となる最適化の結果についての洞察を出力するフレームワークです。
私たちのフレームワークは、最先端の組み合わせ最適化テクノロジーを無視するのではなく、むしろそれを活用して、仮定のシナリオ (たとえば、特定の需要に対してサプライヤー A の代わりにサプライヤー B を使用した場合、コストはどのように変化するか) に定量的に答えることができます。
)。
重要なのは、私たちの設計では、状況によってはプライバシーの問題となる可能性がある独自のデータを LLM に送信する必要がないことです。
Microsoft のクラウド サプライ チェーン内の実際のサーバー配置シナリオでフレームワークの有効性を実証します。
その過程で、他のシナリオでの LLM 出力の精度を評価するために使用できる一般的な評価ベンチマークを開発します。

要約(オリジナル)

Supply chain operations traditionally involve a variety of complex decision making problems. Over the last few decades, supply chains greatly benefited from advances in computation, which allowed the transition from manual processing to automation and cost-effective optimization. Nonetheless, business operators still need to spend substantial efforts in explaining and interpreting the optimization outcomes to stakeholders. Motivated by the recent advances in Large Language Models (LLMs), we study how this disruptive technology can help bridge the gap between supply chain automation and human comprehension and trust thereof. We design OptiGuide — a framework that accepts as input queries in plain text, and outputs insights about the underlying optimization outcomes. Our framework does not forgo the state-of-the-art combinatorial optimization technology, but rather leverages it to quantitatively answer what-if scenarios (e.g., how would the cost change if we used supplier B instead of supplier A for a given demand?). Importantly, our design does not require sending proprietary data over to LLMs, which can be a privacy concern in some circumstances. We demonstrate the effectiveness of our framework on a real server placement scenario within Microsoft’s cloud supply chain. Along the way, we develop a general evaluation benchmark, which can be used to evaluate the accuracy of the LLM output in other scenarios.

arxiv情報

著者 Beibin Li,Konstantina Mellou,Bo Zhang,Jeevan Pathuri,Ishai Menache
発行日 2023-07-13 17:29:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.DM, cs.LG パーマリンク