要約
このペーパーでは、ハイブリッド転送学習と、車両ルーティングの問題(VRP)のさまざまなバリエーションに対処するためのローカル検索アプローチであるTunensearchを紹介します。
最近、マルチタスク学習はVRPバリアントを解くために多くの注目を集めています。
ただし、この適応性はしばしばモデルのパフォーマンスを損ないます。
この課題に対処するために、最初にマルチデポットVRPの補強学習モデルを事前に訓練し、それに続いて短い微調整フェーズが続き、異なるバリアントに適応します。
マルチデポットVRPの複雑さを活用することにより、事前に訓練されたモデルは、より豊富なノード表現を学習し、旅行セールスマンの問題などのより単純なルーティングの問題でトレーニングされたモデルと比較して、より移転可能な知識を獲得します。
Tunensearchは、最初の段階では、変圧器ベースのアーキテクチャを採用し、残留エッジグラフ注意ネットワークで増強して、エッジ距離とレイヤー間の残留接続の影響をキャプチャします。
このアーキテクチャにより、グラフ構造データをより正確にキャプチャできるようになり、VRPの機能のエンコードが改善されます。
推論後、私たちのモデルは、ローカル検索アルゴリズムで構成される第2段階と結び付けられており、最小限の計算オーバーヘッドを追加して、かなりのパフォーマンスの向上をもたらします。
結果は、Tunensearchが各VRPバリアントに対してトレーニングされた多くの既存の最先端モデルよりも優れていることを示しており、トレーニングエポックの5分の1のみが必要です。
私たちのアプローチは、さまざまなタスク、分布、問題の大きさで高いパフォーマンスを達成し、文献の長年のギャップに対処する強力な一般化を実証しています。
要約(オリジナル)
This paper introduces TuneNSearch, a hybrid transfer learning and local search approach for addressing different variants of vehicle routing problems (VRP). Recently, multi-task learning has gained much attention for solving VRP variants. However, this adaptability often compromises the performance of the models. To address this challenge, we first pre-train a reinforcement learning model on the multi-depot VRP, followed by a short fine-tuning phase to adapt it to different variants. By leveraging the complexity of the multi-depot VRP, the pre-trained model learns richer node representations and gains more transferable knowledge compared to models trained on simpler routing problems, such as the traveling salesman problem. TuneNSearch employs, in the first stage, a Transformer-based architecture, augmented with a residual edge-graph attention network to capture the impact of edge distances and residual connections between layers. This architecture allows for a more precise capture of graph-structured data, improving the encoding of VRP’s features. After inference, our model is also coupled with a second stage composed of a local search algorithm, which yields substantial performance gains with minimal computational overhead added. Results show that TuneNSearch outperforms many existing state-of-the-art models trained for each VRP variant, requiring only one-fifth of the training epochs. Our approach demonstrates strong generalization, achieving high performance across different tasks, distributions and problem sizes, thus addressing a long-standing gap in the literature.
arxiv情報
著者 | Arthur Corrêa,Cristóvão Silva,Liming Xu,Alexandra Brintrup,Samuel Moniz |
発行日 | 2025-05-14 17:20:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google