要約
対応するトレーニング データに依存せずに、離散セットにわたる扱いにくい分布からサンプリングする方法を学習することは、組み合わせ最適化を含む幅広い分野で中心的な問題です。
現在、一般的な深層学習ベースのアプローチは、主に正確なサンプル尤度を生成する生成モデルに依存しています。
この研究では、この制限を解除し、拡散モデルのような高度に表現力豊かな潜在変数モデルを採用する可能性を開く方法を導入しています。
私たちのアプローチは概念的には、逆カルバック・ライブラー発散の上限を設定し、正確なサンプル尤度の要件を回避する損失に基づいています。
私たちは、データフリーの組み合わせ最適化におけるアプローチを実験的に検証し、私たちの方法が幅広いベンチマーク問題で新しい最先端を達成することを実証します。
要約(オリジナル)
Learning to sample from intractable distributions over discrete sets without relying on corresponding training data is a central problem in a wide range of fields, including Combinatorial Optimization. Currently, popular deep learning-based approaches rely primarily on generative models that yield exact sample likelihoods. This work introduces a method that lifts this restriction and opens the possibility to employ highly expressive latent variable models like diffusion models. Our approach is conceptually based on a loss that upper bounds the reverse Kullback-Leibler divergence and evades the requirement of exact sample likelihoods. We experimentally validate our approach in data-free Combinatorial Optimization and demonstrate that our method achieves a new state-of-the-art on a wide range of benchmark problems.
arxiv情報
著者 | Sebastian Sanokowski,Sepp Hochreiter,Sebastian Lehner |
発行日 | 2024-08-08 12:17:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google