要約
複雑なコンピューター シミュレーションや物理マシンの正確な代理モデルを学習するには、多くの場合、長期にわたる、または費用のかかる実験が必要です。
さらに、モデル化された物理的依存関係は、非線形で非定常な動作を示します。
したがって、代理モデルを生成するために使用される機械学習方法は、クエリの数を少なく保つためのスキームを提供することにより、これらの問題に対処する必要があります。
能動学習を使用して、システムの非線形および非定常特性を捉えることができます。
非定常性をモデル化する 1 つの方法は、ガウス過程の能動学習で有利であることが証明されている原則である入力分割を誘導することです。
ただし、これらの方法は、既知のパーティショニングを前提としているか、複雑なサンプリング スキームを導入する必要があるか、非常に単純なジオメトリに依存しています。
この作業では、i) 勾配ベースの方法を介して学習可能であり、ii) 低データにも適用可能でありながら、以前のものよりも柔軟なジオメトリを使用するパーティショニングを組み込んだ、シンプルでありながら強力なカーネル ファミリを提示します。
政権。
したがって、アクティブ ラーニング手順の良い前もって提供します。
さまざまなアクティブ ラーニング タスクで優れたパフォーマンスを実証しています。
要約(オリジナル)
Learning precise surrogate models of complex computer simulations and physical machines often require long-lasting or expensive experiments. Furthermore, the modeled physical dependencies exhibit nonlinear and nonstationary behavior. Machine learning methods that are used to produce the surrogate model should therefore address these problems by providing a scheme to keep the number of queries small, e.g. by using active learning and be able to capture the nonlinear and nonstationary properties of the system. One way of modeling the nonstationarity is to induce input-partitioning, a principle that has proven to be advantageous in active learning for Gaussian processes. However, these methods either assume a known partitioning, need to introduce complex sampling schemes or rely on very simple geometries. In this work, we present a simple, yet powerful kernel family that incorporates a partitioning that: i) is learnable via gradient-based methods, ii) uses a geometry that is more flexible than previous ones, while still being applicable in the low data regime. Thus, it provides a good prior for active learning procedures. We empirically demonstrate excellent performance on various active learning tasks.
arxiv情報
著者 | Matthias Bitzer,Mona Meister,Christoph Zimmer |
発行日 | 2023-03-17 14:50:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google