Predicting from Strings: Language Model Embeddings for Bayesian Optimization

要約

ベイジアン最適化は、検索効率を向上させるための実験計画やブラックボックス最適化の分野で広く普及していますが、従来は固定検索スペースと表形式の入力特徴にのみ適用できる回帰モデルに限定されてきました。
私たちは、事前トレーニングされた言語モデルの文字列埋め込み機能を使用して、文字列入力に対してコンテキスト内回帰を適用するパラダイムである Embed-then-Regress を提案します。
すべての入力を文字列として表現することで、合成最適化、組み合わせ最適化、ハイパーパラメーター最適化などのさまざまな領域でベイジアン最適化の汎用回帰を実行し、最先端のガウス プロセス ベースのアルゴリズムと同等の結果を得ることができます。
コードは https://github.com/google-research/optformer/tree/main/optformer/embed_then_regress にあります。

要約(オリジナル)

Bayesian Optimization is ubiquitous in the field of experimental design and blackbox optimization for improving search efficiency, but has been traditionally restricted to regression models which are only applicable to fixed search spaces and tabular input features. We propose Embed-then-Regress, a paradigm for applying in-context regression over string inputs, through the use of string embedding capabilities of pretrained language models. By expressing all inputs as strings, we are able to perform general-purpose regression for Bayesian Optimization over various domains including synthetic, combinatorial, and hyperparameter optimization, obtaining comparable results to state-of-the-art Gaussian Process-based algorithms. Code can be found at https://github.com/google-research/optformer/tree/main/optformer/embed_then_regress.

arxiv情報

著者 Tung Nguyen,Qiuyi Zhang,Bangding Yang,Chansoo Lee,Jorg Bornschein,Yingjie Miao,Sagi Perel,Yutian Chen,Xingyou Song
発行日 2024-10-15 17:23:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク