要約
科学の進歩にとって重大なボトルネックとなっているのは、複雑なシステムのコンピューター シミュレーションにコストがかかるということです。
サロゲート モデルは魅力的なソリューションを提供します。このようなモデルはシミュレーターの評価でトレーニングされ、未調査の入力における高価なシミュレーター上の不確実性をエミュレートして定量化するために使用されます。
多くのアプリケーションでは、関連システム上に利用可能なデータがあることがよくあります。
たとえば、新しいジェット タービンを設計する場合、同様の構成のタービンに関する既存の研究が存在する可能性があります。
重要な問題は、対象となる「ターゲット」システム上で効果的な代理トレーニングを行うために、そのような「ソース」システムからの情報をどのように転送できるかということです。
したがって、我々は、慎重に設計されたガウスプロセスを活用して、サロゲートモデリングのためにそのような情報を転送する、新しいローカル転送学習ガウスプロセス(LOL-GP)モデルを提案します。
LOL-GP の主な新しさは、転送を実行する必要がある領域と転送を回避する必要がある領域を識別する潜在的な正則化モデルです。
この「ローカル転送」特性は科学システムでは望ましいものです。特定のパラメーターでは、そのようなシステムは同様に動作する可能性があるため、転送は有益です。
他のパラメータでは異なる動作をする可能性があるため、転送は有害です。
LOL-GP は、ローカル転送を考慮することで、情報の転送により予測パフォーマンスが悪化するという、既存の転送学習モデルにおける「負の転送」という重大な制限を修正できます。
マルチソース転送設定とマルチ忠実度転送設定の両方について、LOL-GP での効率的な事後予測サンプリングのためのギブズ サンプリング アルゴリズムを導出します。
次に、一連の数値実験とジェット タービン設計への応用を通じて、LOL-GP の代替性能が既存の方法よりも向上していることを示します。
要約(オリジナル)
A critical bottleneck for scientific progress is the costly nature of computer simulations for complex systems. Surrogate models provide an appealing solution: such models are trained on simulator evaluations, then used to emulate and quantify uncertainty on the expensive simulator at unexplored inputs. In many applications, one often has available data on related systems. For example, in designing a new jet turbine, there may be existing studies on turbines with similar configurations. A key question is how information from such ‘source’ systems can be transferred for effective surrogate training on the ‘target’ system of interest. We thus propose a new LOcal transfer Learning Gaussian Process (LOL-GP) model, which leverages a carefully-designed Gaussian process to transfer such information for surrogate modeling. The key novelty of the LOL-GP is a latent regularization model, which identifies regions where transfer should be performed and regions where it should be avoided. This ‘local transfer’ property is desirable in scientific systems: at certain parameters, such systems may behave similarly and thus transfer is beneficial; at other parameters, they may behave differently and thus transfer is detrimental. By accounting for local transfer, the LOL-GP can rectify a critical limitation of ‘negative transfer’ in existing transfer learning models, where the transfer of information worsens predictive performance. We derive a Gibbs sampling algorithm for efficient posterior predictive sampling on the LOL-GP, for both the multi-source and multi-fidelity transfer settings. We then show, via a suite of numerical experiments and an application for jet turbine design, the improved surrogate performance of the LOL-GP over existing methods.
arxiv情報
著者 | Xinming Wang,Simon Mak,John Miller,Jianguo Wu |
発行日 | 2024-10-17 01:53:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google