Shared active subspace for multivariate vector-valued functions

要約

この論文では、多変量ベクトル値関数の共有アクティブ部分空間を計算するためのベースラインとして、いくつかのアプローチを提案します。
目標は、元の空間での関数評価と再構成された空間での関数評価の間の偏差を最小限に抑えることです。
これは、勾配を操作するか、各コンポーネント関数の勾配から計算された対称正 (半) 定 (SPD) 行列を操作して、すべてのコンポーネント関数に共通の単一の構造を取得することによって行われます。
これらのアプローチは、正規分布に制約される既存のベクトル値アプローチとは異なり、基礎となる分布に関係なくあらゆるデータに適用できます。
これらの手法の有効性を 5 つの最適化問題でテストします。
実験は、一般に、SPD レベルの方法が勾配レベルの方法よりも優れており、正規分布の場合はベクトル値のアプローチに近いことを示しています。
興味深いことに、ほとんどの場合、最適な共有アクティブ部分空間を特定するには SPD 行列の合計を取得するだけで十分です。

要約(オリジナル)

This paper proposes several approaches as baselines to compute a shared active subspace for multivariate vector-valued functions. The goal is to minimize the deviation between the function evaluations on the original space and those on the reconstructed one. This is done either by manipulating the gradients or the symmetric positive (semi-)definite (SPD) matrices computed from the gradients of each component function so as to get a single structure common to all component functions. These approaches can be applied to any data irrespective of the underlying distribution unlike the existing vector-valued approach that is constrained to a normal distribution. We test the effectiveness of these methods on five optimization problems. The experiments show that, in general, the SPD-level methods are superior to the gradient-level ones, and are close to the vector-valued approach in the case of a normal distribution. Interestingly, in most cases it suffices to take the sum of the SPD matrices to identify the best shared active subspace.

arxiv情報

著者 Khadija Musayeva,Mickael Binois
発行日 2024-01-05 10:08:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME, stat.ML パーマリンク