要約
ハイパーパラメータ最適化 (HPO) は、機械学習 (ML) の可能性を最大限に活用するために重要です。
実際には、ユーザーは多くの場合、多目的 (MO) 問題、つまり、精度やエネルギー消費など、矛盾する可能性のある目的の最適化に興味を持ちます。
これに対処するために、MO-ML アルゴリズムの大部分は、非支配的な機械学習モデルのパレート フロントをユーザーに返します。
ハイパーパラメータ設定の評価には、結果として得られるパレート フロントの品質の評価が伴うため、このようなアルゴリズムのハイパーパラメータの最適化は簡単ではありません。
文献では、さまざまな特性 (ボリューム、参照点への近さなど) を定量化することによってパレート フロント (ハイパーボリューム、R2 など) の品質を評価する既知の指標があります。
ただし、目的のパレート フロントにつながるインジケーターを選択することは、ユーザーにとって難しい作業になる可能性があります。
この論文では、最適化を導くユーザーからの要望を抽出するための嗜好学習を活用した、多目的 ML に合わせた人間中心のインタラクティブな HPO アプローチを提案します。
ユーザーが自分のニーズに最適なインジケーターを推測することに依存するのではなく、私たちのアプローチは適切なインジケーターを自動的に学習します。
具体的には、個別のパレート フロントのペアごとの比較を利用して、そのような適切な品質指標を学習します。
次に、最先端の HPO アプローチを使用して、この学習された指標に向けて基礎となる MO-ML アルゴリズムのハイパーパラメーターを最適化します。
ML の環境への影響を対象とした実験研究では、ユーザーが事前に選択した間違った指標に基づいて最適化する場合と比較して、私たちのアプローチが大幅に優れたパレート フロントをもたらし、どの指標を知っている上級ユーザーの場合と同等のパフォーマンスを発揮することを実証しました。
選ぶ。
要約(オリジナル)
Hyperparameter optimization (HPO) is important to leverage the full potential of machine learning (ML). In practice, users are often interested in multi-objective (MO) problems, i.e., optimizing potentially conflicting objectives, like accuracy and energy consumption. To tackle this, the vast majority of MO-ML algorithms return a Pareto front of non-dominated machine learning models to the user. Optimizing the hyperparameters of such algorithms is non-trivial as evaluating a hyperparameter configuration entails evaluating the quality of the resulting Pareto front. In literature, there are known indicators that assess the quality of a Pareto front (e.g., hypervolume, R2) by quantifying different properties (e.g., volume, proximity to a reference point). However, choosing the indicator that leads to the desired Pareto front might be a hard task for a user. In this paper, we propose a human-centered interactive HPO approach tailored towards multi-objective ML leveraging preference learning to extract desiderata from users that guide the optimization. Instead of relying on the user guessing the most suitable indicator for their needs, our approach automatically learns an appropriate indicator. Concretely, we leverage pairwise comparisons of distinct Pareto fronts to learn such an appropriate quality indicator. Then, we optimize the hyperparameters of the underlying MO-ML algorithm towards this learned indicator using a state-of-the-art HPO approach. In an experimental study targeting the environmental impact of ML, we demonstrate that our approach leads to substantially better Pareto fronts compared to optimizing based on a wrong indicator pre-selected by the user, and performs comparable in the case of an advanced user knowing which indicator to pick.
arxiv情報
著者 | Joseph Giovanelli,Alexander Tornede,Tanja Tornede,Marius Lindauer |
発行日 | 2023-09-07 09:22:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google