MVMoE: Multi-Task Vehicle Routing Solver with Mixture-of-Experts

要約

車両経路問題(VRP)を解くための学習が注目を集めている。しかし、ほとんどのニューラル・ソルバは、特定の問題に対して独立して構造化され、学習されるだけであり、汎用性と実用性に乏しい。本論文では、様々なVRP変種に同時に対応できる統一的なニューラル・ソルバを開発することを目的とする。具体的には、MVMoE(mixture-of-experts)を用いたマルチタスクビークルルーティングソルバを提案する。さらに、MVMoEのための階層的ゲーティングメカニズムを開発し、経験的性能と計算複雑さの良好なトレードオフを実現する。実験的には、我々の手法は10種類の未知のVRPバリエーションにおいてゼロショット汎化性能を大幅に向上させ、少数ショットの設定と実世界のベンチマークインスタンスにおいて適切な結果を示した。さらに、VRPを解く際のMoE構成の効果に関する広範な研究を行い、分布外のデータに直面した場合の階層的ゲーティングの優位性を観察する。ソースコードはhttps://github.com/RoyalSkye/Routing-MVMoE。

要約(オリジナル)

Learning to solve vehicle routing problems (VRPs) has garnered much attention. However, most neural solvers are only structured and trained independently on a specific problem, making them less generic and practical. In this paper, we aim to develop a unified neural solver that can cope with a range of VRP variants simultaneously. Specifically, we propose a multi-task vehicle routing solver with mixture-of-experts (MVMoE), which greatly enhances the model capacity without a proportional increase in computation. We further develop a hierarchical gating mechanism for the MVMoE, delivering a good trade-off between empirical performance and computational complexity. Experimentally, our method significantly promotes zero-shot generalization performance on 10 unseen VRP variants, and showcases decent results on the few-shot setting and real-world benchmark instances. We further conduct extensive studies on the effect of MoE configurations in solving VRPs, and observe the superiority of hierarchical gating when facing out-of-distribution data. The source code is available at: https://github.com/RoyalSkye/Routing-MVMoE.

arxiv情報

著者 Jianan Zhou,Zhiguang Cao,Yaoxin Wu,Wen Song,Yining Ma,Jie Zhang,Chi Xu
発行日 2024-05-06 11:35:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク