Large-Batch, Neural Multi-Objective Bayesian Optimization

要約

ベイジアン最適化は、ブラックボックスで評価コストのかかる関数をグローバルに最適化するための強力なフレームワークを提供します。
ただし、デフォルトのガウス過程サロゲートのスケーラビリティが低いため、特に複数の目的の設定において、データ集約型の問題を処理する能力には限界があります。
我々は、これらの制限に対処するために特別に調整された新しいベイジアン最適化フレームワークを紹介します。
私たちの方法では、サロゲート モデリングにベイジアン ニューラル ネットワーク アプローチを活用しています。
これにより、大量のデータの効率的な処理、複雑な問題のモデル化、予測の不確実性の生成が可能になります。
さらに、私たちの手法には、よく知られており導入が簡単な NSGA-II に基づいた、スケーラブルで不確実性を意識した取得戦略が組み込まれています。
この完全に並列化可能な戦略により、未知の領域の効率的な探索が促進されます。
当社のフレームワークにより、データ集約型の環境で最小限の反復回数で効果的な最適化が可能になります。
最先端の多目的最適化と比較することで、私たちの方法の優位性を実証します。
私たちは、翼の設計とカラー印刷という 2 つの現実世界の問題について評価を実行し、アプローチの適用性と効率性を示しています。
コードはhttps://github.com/an-on-ym-ous/lbn_moboから入手できます。

要約(オリジナル)

Bayesian optimization provides a powerful framework for global optimization of black-box, expensive-to-evaluate functions. However, it has a limited capacity in handling data-intensive problems, especially in multi-objective settings, due to the poor scalability of default Gaussian Process surrogates. We present a novel Bayesian optimization framework specifically tailored to address these limitations. Our method leverages a Bayesian neural networks approach for surrogate modeling. This enables efficient handling of large batches of data, modeling complex problems, and generating the uncertainty of the predictions. In addition, our method incorporates a scalable, uncertainty-aware acquisition strategy based on the well-known, easy-to-deploy NSGA-II. This fully parallelizable strategy promotes efficient exploration of uncharted regions. Our framework allows for effective optimization in data-intensive environments with a minimum number of iterations. We demonstrate the superiority of our method by comparing it with state-of-the-art multi-objective optimizations. We perform our evaluation on two real-world problems – airfoil design and color printing – showcasing the applicability and efficiency of our approach. Code is available at: https://github.com/an-on-ym-ous/lbn_mobo

arxiv情報

著者 Navid Ansari,Hans-Peter Seidel,Vahid Babaei
発行日 2023-06-12 10:05:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.LG パーマリンク