Expensive Multi-Objective Bayesian Optimization Based on Diffusion Models

要約

多目的ベイジアン最適化 (MOBO) は、高価なさまざまな多目的最適化問題 (EMOP) に対して有望なパフォーマンスを示しています。
ただし、関数評価が限られている場合、パレート最適解の複雑な分布を効果的にモデル化することは困難です。
既存のパレート セット学習アルゴリズムは、このような高価なシナリオではかなりの不安定性を示し、得られた解セットとパレート セット (PS) の間に大きな偏差が生じる可能性があります。
本稿では、高価なMOBO向けに、新しい複合拡散モデルベースのパレート集合学習アルゴリズム、すなわちCDM-PSLを提案します。
CDM-PSL には、高品質のサンプルを生成するための無条件拡散モデルと条件付き拡散モデルの両方が含まれています。
さらに、EMOP のさまざまな目的のバランスをとるために、情報エントロピーに基づく重み付け方法を導入します。
この方法は指導戦略と統合されており、最適化プロセス中にすべての目標が適切にバランスされ、適切な考慮が払われていることが保証されます。
合成ベンチマークと現実世界の問題の両方に関する広範な実験結果は、私たちが提案したアルゴリズムがさまざまな最先端の MOBO アルゴリズムと比較して優れたパフォーマンスを達成することを示しています。

要約(オリジナル)

Multi-objective Bayesian optimization (MOBO) has shown promising performance on various expensive multi-objective optimization problems (EMOPs). However, effectively modeling complex distributions of the Pareto optimal solutions is difficult with limited function evaluations. Existing Pareto set learning algorithms may exhibit considerable instability in such expensive scenarios, leading to significant deviations between the obtained solution set and the Pareto set (PS). In this paper, we propose a novel Composite Diffusion Model based Pareto Set Learning algorithm, namely CDM-PSL, for expensive MOBO. CDM-PSL includes both unconditional and conditional diffusion model for generating high-quality samples. Besides, we introduce an information entropy based weighting method to balance different objectives of EMOPs. This method is integrated with the guiding strategy, ensuring that all the objectives are appropriately balanced and given due consideration during the optimization process; Extensive experimental results on both synthetic benchmarks and real-world problems demonstrates that our proposed algorithm attains superior performance compared with various state-of-the-art MOBO algorithms.

arxiv情報

著者 Bingdong Li,Zixiang Di,Yongfan Lu,Hong Qian,Feng Wang,Peng Yang,Ke Tang,Aimin Zhou
発行日 2024-05-14 14:55:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク