DPN: Decoupling Partition and Navigation for Neural Solvers of Min-max Vehicle Routing Problems

要約

Min-Max 車両ルート問題 (min-max VRP) は、複数のルートを割り当てることで指定されたすべての顧客を横断し、最長ルートの長さを最小限に抑えることを目的としています。
最近、強化学習 (RL) ベースの逐次計画法が、効率と最適性を解決する上で利点を示しています。
ただし、これらの方法では学習表現の問題固有の特性を活用できず、最適なルートをデコードするための機能があまり効果的ではありません。
このペーパーでは、min-max VRP の連続計画プロセスを、異なるルートの顧客パーティションと各ルートでの顧客ナビゲーション (つまり、パーティションとナビゲーション) という 2 つの結合された最適化タスクとして考慮します。
min-max VRP インスタンスを効果的に処理するために、パーティションとナビゲーションの個別の埋め込みを学習する新しいアテンションベースのパーティション アンド ナビゲーション エンコーダー (P&N エンコーダー) を紹介します。
さらに、ルートのデコードに固有の対称性を利用し、効果的なエージェント順列対称 (APS) 損失関数を開発します。
実験結果は、提案されたデカップリング パーティション ナビゲーション (DPN) 方法が、単一デポとマルチ デポの min-max VRP の両方で既存の学習ベースの方法を大幅に上回ることを示しています。
私たちのコードは次の場所で入手できます

要約(オリジナル)

The min-max vehicle routing problem (min-max VRP) traverses all given customers by assigning several routes and aims to minimize the length of the longest route. Recently, reinforcement learning (RL)-based sequential planning methods have exhibited advantages in solving efficiency and optimality. However, these methods fail to exploit the problem-specific properties in learning representations, resulting in less effective features for decoding optimal routes. This paper considers the sequential planning process of min-max VRPs as two coupled optimization tasks: customer partition for different routes and customer navigation in each route (i.e., partition and navigation). To effectively process min-max VRP instances, we present a novel attention-based Partition-and-Navigation encoder (P&N Encoder) that learns distinct embeddings for partition and navigation. Furthermore, we utilize an inherent symmetry in decoding routes and develop an effective agent-permutation-symmetric (APS) loss function. Experimental results demonstrate that the proposed Decoupling-Partition-Navigation (DPN) method significantly surpasses existing learning-based methods in both single-depot and multi-depot min-max VRPs. Our code is available at

arxiv情報

著者 Zhi Zheng,Shunyu Yao,Zhenkun Wang,Xialiang Tong,Mingxuan Yuan,Ke Tang
発行日 2024-05-27 15:33:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク