要約
最近、ニューラルネットワークを用いてパレート集合全体を学習するパレート集合学習(PSL)が提案されている。
PSL は、優先ベクトルを使用して複数の目的をスカラー化し、優先ベクトルから特定のパレート最適解へのマッピングの学習を容易にします。
以前の PSL 手法は、均一な優先ベクトル サンプリングを使用して人為的な多目的最適化問題 (MOP) を解決する際の有効性を示しています。
学習されたパレート集合の品質は嗜好ベクトルのサンプリング戦略に影響され、嗜好ベクトルのサンプリングはパレート フロント形状に基づいて決定する必要があります。
ただし、固定優先サンプリング戦略では、複数の MOP のパレート フロントを同時に適応させることはできません。
この制限に対処するために、この論文では、嗜好ベクトルを効率的にサンプリングするための進化的嗜好サンプリング (EPS) 戦略を提案します。
進化的アルゴリズムにインスピレーションを得て、私たちは好みのサンプリングをニューラル ネットワークのトレーニング用の好みベクトルを生成するための進化的なプロセスとみなします。
私たちは EPS 戦略を 5 つの高度な PSL メソッドに統合します。
広範な実験により、私たちが提案した方法は、7 つのテスト問題に対するベースライン アルゴリズムよりも収束速度が速いことが実証されました。
私たちの実装は https://github.com/rG223/EPS で入手できます。
要約(オリジナル)
Recently, Pareto Set Learning (PSL) has been proposed for learning the entire Pareto set using a neural network. PSL employs preference vectors to scalarize multiple objectives, facilitating the learning of mappings from preference vectors to specific Pareto optimal solutions. Previous PSL methods have shown their effectiveness in solving artificial multi-objective optimization problems (MOPs) with uniform preference vector sampling. The quality of the learned Pareto set is influenced by the sampling strategy of the preference vector, and the sampling of the preference vector needs to be decided based on the Pareto front shape. However, a fixed preference sampling strategy cannot simultaneously adapt the Pareto front of multiple MOPs. To address this limitation, this paper proposes an Evolutionary Preference Sampling (EPS) strategy to efficiently sample preference vectors. Inspired by evolutionary algorithms, we consider preference sampling as an evolutionary process to generate preference vectors for neural network training. We integrate the EPS strategy into five advanced PSL methods. Extensive experiments demonstrate that our proposed method has a faster convergence speed than baseline algorithms on 7 testing problems. Our implementation is available at https://github.com/rG223/EPS.
arxiv情報
著者 | Rongguang Ye,Longcan Chen,Jinyuan Zhang,Hisao Ishibuchi |
発行日 | 2024-04-12 11:58:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google