Deep Reinforcement Learning for Multi-Truck Vehicle Routing Problems with Multi-Leg Demand Routes

要約

深部強化学習 (RL) は、特にエンコーダ デコーダ アテンション メカニズムによって生成されたポリシーを使用する場合、一部の配車経路問題 (VRP) に対する近似解を生成するのに効果的であることが示されています。
これらの手法は、比較的単純な問題のインスタンスに対しては非常に成功していますが、有効な RL 手法が実証されていない、研究が不十分で非常に複雑な VRP バリアントがまだ存在します。
この作業では、複数のトラックと複数レッグのルーティング要件を含む、そのような VRP バリアントの 1 つに焦点を当てます。
これらの問題では、開始ノードから終了ノードへだけでなく、一連のノードに沿ってデマンドが移動する必要があります。
ディープ RL を現実世界の産業規模のサプライ チェーン ロジスティクスにとって実行可能な戦略にするという目標を掲げて、複数のトラックや複数レッグのルーティング要件を処理できるようにする既存のエンコーダ デコーダ アテンション モデルの新しい拡張機能を開発します。
私たちのモデルには、少数のトラックとノード用にトレーニングした後、大規模なサプライ チェーンに組み込んで、より多数のトラックとノード用のソリューションを生成できるという利点があります。
日本の自動車部品メーカーであるアイシン株式会社の事業で生じる実際のサプライチェーン環境で当社のアプローチをテストしたところ、当社のアルゴリズムがアイシンの以前の最良のソリューションを上回るパフォーマンスを示したことがわかりました。

要約(オリジナル)

Deep reinforcement learning (RL) has been shown to be effective in producing approximate solutions to some vehicle routing problems (VRPs), especially when using policies generated by encoder-decoder attention mechanisms. While these techniques have been quite successful for relatively simple problem instances, there are still under-researched and highly complex VRP variants for which no effective RL method has been demonstrated. In this work we focus on one such VRP variant, which contains multiple trucks and multi-leg routing requirements. In these problems, demand is required to move along sequences of nodes, instead of just from a start node to an end node. With the goal of making deep RL a viable strategy for real-world industrial-scale supply chain logistics, we develop new extensions to existing encoder-decoder attention models which allow them to handle multiple trucks and multi-leg routing requirements. Our models have the advantage that they can be trained for a small number of trucks and nodes, and then embedded into a large supply chain to yield solutions for larger numbers of trucks and nodes. We test our approach on a real supply chain environment arising in the operations of Japanese automotive parts manufacturer Aisin Corporation, and find that our algorithm outperforms Aisin’s previous best solution.

arxiv情報

著者 Joshua Levin,Randall Correll,Takanori Ide,Takafumi Suzuki,Takaho Saito,Alan Arai
発行日 2024-08-27 15:36:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク