On Size and Hardness Generalization in Unsupervised Learning for the Travelling Salesman Problem

要約

巡回セールスマン問題 (TSP) を解決する際の教師なし学習の一般化能力を研究します。
サロゲート損失関数でトレーニングされたグラフ ニューラル ネットワーク (GNN) を使用して、各ノードのエンベディングを生成します。
これらのエンベディングを使用して、各エッジが最適なルートの一部である可能性を示すヒート マップを構築します。
次に、ローカル検索を適用して最終的な予測を生成します。
私たちの調査では、さまざまなトレーニング インスタンス サイズ、埋め込み次元、分布が教師なし学習法の結果にどのような影響を与えるかを調査しています。
私たちの結果は、より大きなインスタンス サイズでトレーニングし、埋め込み次元を増やすことで、より効果的な表現を構築でき、TSP を解決するモデルの能力を強化できることを示しています。
さらに、さまざまな分布にわたる一般化を評価する際には、まずさまざまな分布の硬さを決定し、さまざまな硬さが最終結果にどのような影響を与えるかを調査します。
私たちの調査結果は、より困難なインスタンスでトレーニングされたモデルがより優れた一般化機能を示すことを示唆しており、教師なし学習を使用して TSP を解決する際に適切なトレーニング インスタンスを選択することの重要性を強調しています。

要約(オリジナル)

We study the generalization capability of Unsupervised Learning in solving the Travelling Salesman Problem (TSP). We use a Graph Neural Network (GNN) trained with a surrogate loss function to generate an embedding for each node. We use these embeddings to construct a heat map that indicates the likelihood of each edge being part of the optimal route. We then apply local search to generate our final predictions. Our investigation explores how different training instance sizes, embedding dimensions, and distributions influence the outcomes of Unsupervised Learning methods. Our results show that training with larger instance sizes and increasing embedding dimensions can build a more effective representation, enhancing the model’s ability to solve TSP. Furthermore, in evaluating generalization across different distributions, we first determine the hardness of various distributions and explore how different hardnesses affect the final results. Our findings suggest that models trained on harder instances exhibit better generalization capabilities, highlighting the importance of selecting appropriate training instances in solving TSP using Unsupervised Learning.

arxiv情報

著者 Yimeng Min,Carla P. Gomes
発行日 2024-03-29 14:47:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク