要約
テンソル ネットワークは、多体量子物理学の文脈で最初に使用されたツールであり、現在では数値手法から機械学習に至るまで、計算科学全体で広範囲に使用されています。
テンソル ネットワークを進化的最適化アルゴリズムに統合する方法が、最近の文献に登場しています。
本質的に、これらの方法は、遺伝的アルゴリズムの従来のクロスオーバー操作をテンソル ネットワーク ベースの生成モデルに置き換えるものとして理解できます。
私たちはこれらの手法を分布推定アルゴリズム (EDA) であるという観点から調査します。
これらの手法の最適化パフォーマンスは、生成モデルの能力と単純には関係していないことがわかりました。
より優れた生成モデル (トレーニング データの抽出元の分布をより適切にモデル化するという意味で) が、その一部を構成する最適化アルゴリズムのパフォーマンスを必ずしも向上させるわけではありません。
このため、強力な生成モデルを最適化ルーチンにどのように組み込むのが最適かという問題が生じます。
これを考慮すると、生成モデルの出力に明示的な突然変異演算子を追加すると、最適化のパフォーマンスが向上することが多いことがわかります。
要約(オリジナル)
Tensor networks are a tool first employed in the context of many-body quantum physics that now have a wide range of uses across the computational sciences, from numerical methods to machine learning. Methods integrating tensor networks into evolutionary optimization algorithms have appeared in the recent literature. In essence, these methods can be understood as replacing the traditional crossover operation of a genetic algorithm with a tensor network-based generative model. We investigate these methods from the point of view that they are Estimation of Distribution Algorithms (EDAs). We find that optimization performance of these methods is not related to the power of the generative model in a straightforward way. Generative models that are better (in the sense that they better model the distribution from which their training data is drawn) do not necessarily result in better performance of the optimization algorithm they form a part of. This raises the question of how best to incorporate powerful generative models into optimization routines. In light of this we find that adding an explicit mutation operator to the output of the generative model often improves optimization performance.
arxiv情報
著者 | John Gardiner,Javier Lopez-Piqueres |
発行日 | 2024-12-27 18:22:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google