要約
さまざまなスケールと分布にわたる神経アプローチの一般化を達成することは、巡回セールスマンの問題〜(TSP)にとって重要な課題です。
重要な障害は、ニューラルネットワークが普遍的なパターンを特定し、多様なインスタンスから最適なソリューションを導き出すための堅牢な原則を学習できないことが多いことです。
この論文では、最初に最適なTSPソリューションの基本的な構造原理である純度法(PULA)を明らかにし、エッジの有病率が周囲の頂点のスパースと指数関数的に成長することを定義します。
多様なインスタンス全体で統計的に検証されたプラは、グローバルオプティマの局所スパース性に対する一貫したバイアスを明らかにしています。
この洞察に基づいて、私たちは純度政策最適化〜(PUP)を提案します。これは、一般化を強化するためにソリューション構築プロセス中に、神経溶液の特性をプラと明示的に整列させる新しいトレーニングパラダイムです。
広範な実験は、PUPが人気のあるニューラルソルバーとシームレスに統合され、推論中に追加の計算オーバーヘッドが発生することなく、一般化パフォーマンスを大幅に向上させることができることを示しています。
要約(オリジナル)
Achieving generalization in neural approaches across different scales and distributions remains a significant challenge for the Traveling Salesman Problem~(TSP). A key obstacle is that neural networks often fail to learn robust principles for identifying universal patterns and deriving optimal solutions from diverse instances. In this paper, we first uncover Purity Law (PuLa), a fundamental structural principle for optimal TSP solutions, defining that edge prevalence grows exponentially with the sparsity of surrounding vertices. Statistically validated across diverse instances, PuLa reveals a consistent bias toward local sparsity in global optima. Building on this insight, we propose Purity Policy Optimization~(PUPO), a novel training paradigm that explicitly aligns characteristics of neural solutions with PuLa during the solution construction process to enhance generalization. Extensive experiments demonstrate that PUPO can be seamlessly integrated with popular neural solvers, significantly enhancing their generalization performance without incurring additional computational overhead during inference.
arxiv情報
著者 | Wenzhao Liu,Haoran Li,Congying Han,Zicheng Zhang,Anqi Li,Tiande Guo |
発行日 | 2025-05-07 16:46:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google