A Continuous Relaxation for Discrete Bayesian Optimization

要約

ベイズ最適化では、離散データに対して、利用可能なターゲット観測値がわずかしかない場合に効率的に最適化することが課題です。
目的関数の連続緩和を提案し、推論と最適化が計算的に扱いやすいことを示します。
特に、観測が非常に少なく、厳しい予算が存在する最適化ドメインを考慮します。
生化学的特性を評価するのに費用がかかるため、タンパク質配列を最適化することが動機となっています。
私たちのアプローチの利点は 2 つあります。問題が連続的な設定で扱われることと、シーケンスに関する利用可能な事前知識を直接組み込むことができることです。
より具体的には、問題領域全体にわたって利用可能で学習された分布を利用して、共分散関数を生成するヘリンジャー距離の重み付けを行います。
結果として得られる取得関数が連続最適化アルゴリズムまたは離散最適化アルゴリズムの両方で最適化できることを示し、2 つの生化学的配列最適化タスクに関する方法を経験的に評価します。

要約(オリジナル)

To optimize efficiently over discrete data and with only few available target observations is a challenge in Bayesian optimization. We propose a continuous relaxation of the objective function and show that inference and optimization can be computationally tractable. We consider in particular the optimization domain where very few observations and strict budgets exist; motivated by optimizing protein sequences for expensive to evaluate bio-chemical properties. The advantages of our approach are two-fold: the problem is treated in the continuous setting, and available prior knowledge over sequences can be incorporated directly. More specifically, we utilize available and learned distributions over the problem domain for a weighting of the Hellinger distance which yields a covariance function. We show that the resulting acquisition function can be optimized with both continuous or discrete optimization algorithms and empirically assess our method on two bio-chemical sequence optimization tasks.

arxiv情報

著者 Richard Michael,Simon Bartels,Miguel González-Duque,Yevgen Zainchkovskyy,Jes Frellsen,Søren Hauberg,Wouter Boomsma
発行日 2024-04-26 14:47:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク