MMO: Meta Multi-Objectivization for Software Configuration Tuning

要約

ソフトウェア構成のチューニングは、特定のパフォーマンス目標を最適化する (レイテンシの最小化など) ために不可欠です。
しかし、ソフトウェアの本質的に複雑な構成環境と高価な測定により、特に検索が局所最適化に陥るのを防ぐという点では、かなり穏やかな成功が収められています。
この問題に対処するために、この文書では別の視点を取り上げます。
オプティマイザーの改善に焦点を当てるのではなく、最適化モデルのレベルに取り組み、補助的なパフォーマンス目標 (レイテンシに加えてスループットなど) を考慮したメタ多目的化 (MMO) モデルを提案します。
このモデルの特徴は、補助的なパフォーマンス目標を最適化するのではなく、異なる構成の同等のパフォーマンスを比較しにくくする (つまり、パレートが互いに支配的でない) ためにそれを使用することで、探索が局所的な最適化に囚われるのを防ぐことです。
重要なのは、新しい正規化方法を設計することで、その有効性に影響を与える可能性がある唯一かつ非常に機密性の高いパラメーターである重みを気にせずに、MMO モデルを効果的に使用する方法を示すことです。
11 の実世界のソフトウェア システム/環境からの 22 のケースでの実験により、新しい正規化を使用した MMO モデルは、82% のケースで最先端の単一目的モデルよりも優れたパフォーマンスを発揮し、最大 2.09 倍の高速化を達成することが確認されました。
ケースの 68% では、新しい正規化により、事前調整された最適な重み付けの下で以前の FSE 作業からの正規化を使用した場合に、MMO モデルがインスタンスよりも優れたパフォーマンスを発揮できるようになり、そうでない場合は検索に必要となる大量のリソースが節約されます。
良い重さ。
また、新しい正規化を備えた MMO モデルは、ケースの 68% で最近のモデルベースのチューニング ツールを統合でき、一般に最大 1.22 倍の高速化が可能であることも実証します。

要約(オリジナル)

Software configuration tuning is essential for optimizing a given performance objective (e.g., minimizing latency). Yet, due to the software’s intrinsically complex configuration landscape and expensive measurement, there has been a rather mild success, particularly in preventing the search from being trapped in local optima. To address this issue, in this paper we take a different perspective. Instead of focusing on improving the optimizer, we work on the level of optimization model and propose a meta multi-objectivization (MMO) model that considers an auxiliary performance objective (e.g., throughput in addition to latency). What makes this model distinct is that we do not optimize the auxiliary performance objective, but rather use it to make similarly-performing while different configurations less comparable (i.e. Pareto nondominated to each other), thus preventing the search from being trapped in local optima. Importantly, by designing a new normalization method, we show how to effectively use the MMO model without worrying about its weight — the only yet highly sensitive parameter that can affect its effectiveness. Experiments on 22 cases from 11 real-world software systems/environments confirm that our MMO model with the new normalization performs better than its state-of-the-art single-objective counterparts on 82% cases while achieving up to 2.09x speedup. For 68% of the cases, the new normalization also enables the MMO model to outperform the instance when using it with the normalization from our prior FSE work under pre-tuned best weights, saving a great amount of resources which would be otherwise necessary to find a good weight. We also demonstrate that the MMO model with the new normalization can consolidate recent model-based tuning tools on 68% of the cases with up to 1.22x speedup in general.

arxiv情報

著者 Pengzhou Chen,Tao Chen,Miqing Li
発行日 2024-03-15 14:09:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.SE パーマリンク