要約
より優れた機械学習プログラムを自動的に設計する方法は、AutoML 内で未解決の問題です。
進化はより良い ML プログラムを検索するための一般的なツールですが、学習自体を検索のガイドとして使用することはあまり成功せず、より難しい問題についてはあまり理解されていませんが、最適化プロセスの速度と最終的なパフォーマンスを劇的に向上させることが期待されています。
私たちは、一対のプログラムが与えられた場合にどちらのプログラムがより優れているかを区別するためにオンラインで訓練されたバイナリ弁別器を使用して進化を導くことを提案します。
ディスクリミネーターは、コストのかかる評価を実行する必要なく、より良いプログラムを選択するため、進化の収束が加速されます。
私たちの方法では、シンボリック オプティマイザー、ニューラル アーキテクチャ、RL 損失関数、シンボリック回帰方程式などのさまざまな ML コンポーネントを、同じ有向非巡回グラフ表現でエンコードできます。
この表現を最新の GNN および適応突然変異戦略と組み合わせることで、ML オプティマイザーのシンボリック検索で 3.7 倍の高速化、RL 損失関数での 4 倍の高速化など、一連の多様な問題にわたって進化を高速化できることを実証します。
要約(オリジナル)
How to automatically design better machine learning programs is an open problem within AutoML. While evolution has been a popular tool to search for better ML programs, using learning itself to guide the search has been less successful and less understood on harder problems but has the promise to dramatically increase the speed and final performance of the optimization process. We propose guiding evolution with a binary discriminator, trained online to distinguish which program is better given a pair of programs. The discriminator selects better programs without having to perform a costly evaluation and thus speed up the convergence of evolution. Our method can encode a wide variety of ML components including symbolic optimizers, neural architectures, RL loss functions, and symbolic regression equations with the same directed acyclic graph representation. By combining this representation with modern GNNs and an adaptive mutation strategy, we demonstrate our method can speed up evolution across a set of diverse problems including a 3.7x speedup on the symbolic search for ML optimizers and a 4x speedup for RL loss functions.
arxiv情報
著者 | John D. Co-Reyes,Yingjie Miao,George Tucker,Aleksandra Faust,Esteban Real |
発行日 | 2024-02-08 16:59:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google