要約
この論文では、組み合わせパラメータと連続パラメータの両方で構成される大規模なハイブリッド検索空間でブラックボックス関数を最適化する問題に取り組みます。
突然変異ベースのアプローチに依存する以前の進化的アルゴリズムは、組み合わせ空間に対して柔軟である一方で、理論的にも経験的にも高次元の連続空間で次元の呪いを受けており、ハイブリッド検索空間での範囲も制限されていることを示しています。
この呪いに対抗するために、ES-ENAS を提案します。ES-ENAS は、高度にスケーラブルで直感的な方法でコンビナトリアル オプティマイザーを使用して、一般に Evolutionary Strategies (ES) として知られる、サンプル効率の高い平滑化勾配手法のクラスを組み合わせた、シンプルでモジュラーな共同最適化手順です。
Efficient Neural Architecture Search (ENAS) で導入されたワンショットまたはスーパーネット パラダイムに触発されました。
そうすることで、サンプル効率が大幅に向上し、合成ベンチマークで経験的に実証され、一般的な RL ベンチマークよりもアーキテクチャ検索に ES-ENAS を適用できるようになります。
要約(オリジナル)
In this paper, we approach the problem of optimizing blackbox functions over large hybrid search spaces consisting of both combinatorial and continuous parameters. We demonstrate that previous evolutionary algorithms which rely on mutation-based approaches, while flexible over combinatorial spaces, suffer from a curse of dimensionality in high dimensional continuous spaces both theoretically and empirically, which thus limits their scope over hybrid search spaces as well. In order to combat this curse, we propose ES-ENAS, a simple and modular joint optimization procedure combining the class of sample-efficient smoothed gradient techniques, commonly known as Evolutionary Strategies (ES), with combinatorial optimizers in a highly scalable and intuitive way, inspired by the one-shot or supernet paradigm introduced in Efficient Neural Architecture Search (ENAS). By doing so, we achieve significantly more sample efficiency, which we empirically demonstrate over synthetic benchmarks, and are further able to apply ES-ENAS for architecture search over popular RL benchmarks.
arxiv情報
著者 | Xingyou Song,Krzysztof Choromanski,Jack Parker-Holder,Yunhao Tang,Qiuyi Zhang,Daiyi Peng,Deepali Jain,Wenbo Gao,Aldo Pacchiano,Tamas Sarlos,Yuxiang Yang |
発行日 | 2023-03-15 15:05:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google