要約
Anytime Multi-Agent Path Finding (MAPF) は、大規模なマルチエージェント システムにおけるスケーラブルなパス最適化への有望なアプローチです。
いつでも最先端の MAPF は、大規模近傍探索 (LNS) に基づいており、ランダム化された破壊ヒューリスティックを使用して、解の固定数の部分 (近傍) を破壊および修復することによって、高速の初期解が反復的に最適化されます。
そして優先順位の高い計画を立てます。
さまざまな MAPF インスタンスで最近の成功を収めているにもかかわらず、現在の LNS ベースのアプローチは、固定近傍サイズによる貪欲な最適化のため、探索性と柔軟性に欠けており、一般に低品質のソリューションにつながる可能性があります。
これまでのところ、これらの制限は、実際の計画を超えたチューニングやオフライン機械学習における事前の広範な努力によって対処されてきました。
この論文では、LNS でのオンライン学習に焦点を当て、Bandit ベースの Adaptive LArge Neighborhood search Combined with Exploration (BALANCE) を提案します。
BALANCE は、バイレベルのマルチアーム バンディット スキームを使用して、検索中に実行中に破壊ヒューリスティックと近傍サイズの選択を適応させます。
MAPF ベンチマーク セットの複数のマップで BALANCE を評価し、大規模シナリオで最先端の常時 MAPF と比較して少なくとも 50% のコスト改善を実証しています。
トンプソン サンプリングは、代替のマルチアーム バンディット アルゴリズムと比較して特に優れたパフォーマンスを発揮することがわかりました。
要約(オリジナル)
Anytime multi-agent path finding (MAPF) is a promising approach to scalable path optimization in large-scale multi-agent systems. State-of-the-art anytime MAPF is based on Large Neighborhood Search (LNS), where a fast initial solution is iteratively optimized by destroying and repairing a fixed number of parts, i.e., the neighborhood, of the solution, using randomized destroy heuristics and prioritized planning. Despite their recent success in various MAPF instances, current LNS-based approaches lack exploration and flexibility due to greedy optimization with a fixed neighborhood size which can lead to low quality solutions in general. So far, these limitations have been addressed with extensive prior effort in tuning or offline machine learning beyond actual planning. In this paper, we focus on online learning in LNS and propose Bandit-based Adaptive LArge Neighborhood search Combined with Exploration (BALANCE). BALANCE uses a bi-level multi-armed bandit scheme to adapt the selection of destroy heuristics and neighborhood sizes on the fly during search. We evaluate BALANCE on multiple maps from the MAPF benchmark set and empirically demonstrate cost improvements of at least 50% compared to state-of-the-art anytime MAPF in large-scale scenarios. We find that Thompson Sampling performs particularly well compared to alternative multi-armed bandit algorithms.
arxiv情報
著者 | Thomy Phan,Taoan Huang,Bistra Dilkina,Sven Koenig |
発行日 | 2024-01-01 13:43:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google