要約
機械/深層学習モデルは、ソフトウェア システムの構成パフォーマンスを予測するために広く採用されています。
ただし、依然として解決されていない重要な課題は、構成環境から引き継がれた疎性、つまり構成オプション (機能) の影響とデータ サンプルの分布が非常に疎であることにどのように対応するかということです。
この論文では、「分割して学習」によってモデルを構築する分割可能な学習の新しいパラダイムに基づいて、構成パフォーマンスを予測するためのモデルに依存しないスパース性堅牢なフレームワーク (DaL と呼ばれます) を提案します。
サンプルの疎性を処理するために、構成ランドスケープからのサンプルは離れた部分に分割され、そのそれぞれに対して、特徴の疎性に対処するために、疎なローカル モデル (例: 正規化された階層型インタラクション ニューラル ネットワーク) を構築します。
新しく与えられた構成は、最終的な予測のために適切な除算モデルに割り当てられます。
さらに、DaL は、追加のトレーニングやプロファイリングを行わずに、システムとサンプル サイズに必要な最適な分割数を適応的に決定します。
12 の実世界システムと 5 セットのトレーニング データからの実験結果によると、最先端のアプローチと比較して、DaL は 60 ケース中 44 ケースで最良のアプローチと同等のパフォーマンスを示し、最大 1.61 倍の改善を示しています。
正確さ;
同じ/より良い精度を達成するために必要なサンプルが少なくなります。
許容可能なトレーニングのオーバーヘッドが生成されます。
特に、パラメータ d を適応させたメカニズムは、個々の実行の 76.43% で最適値に到達できます。
この結果は、分割可能な学習のパラダイムが、アンサンブル学習などの他の同様のパラダイムよりも構成パフォーマンスの予測に適していることも確認しています。
実際、DaL はさまざまなグローバル モデルを基礎となるローカル モデルとして使用する際に大幅に改善し、その柔軟性をさらに強化します。
要約(オリジナル)
Machine/deep learning models have been widely adopted for predicting the configuration performance of software systems. However, a crucial yet unaddressed challenge is how to cater for the sparsity inherited from the configuration landscape: the influence of configuration options (features) and the distribution of data samples are highly sparse. In this paper, we propose a model-agnostic and sparsity-robust framework for predicting configuration performance, dubbed DaL, based on the new paradigm of dividable learning that builds a model via ‘divide-and-learn’. To handle sample sparsity, the samples from the configuration landscape are divided into distant divisions, for each of which we build a sparse local model, e.g., regularized Hierarchical Interaction Neural Network, to deal with the feature sparsity. A newly given configuration would then be assigned to the right model of division for the final prediction. Further, DaL adaptively determines the optimal number of divisions required for a system and sample size without any extra training or profiling. Experiment results from 12 real-world systems and five sets of training data reveal that, compared with the state-of-the-art approaches, DaL performs no worse than the best counterpart on 44 out of 60 cases with up to 1.61x improvement on accuracy; requires fewer samples to reach the same/better accuracy; and producing acceptable training overhead. In particular, the mechanism that adapted the parameter d can reach the optimal value for 76.43% of the individual runs. The result also confirms that the paradigm of dividable learning is more suitable than other similar paradigms such as ensemble learning for predicting configuration performance. Practically, DaL considerably improves different global models when using them as the underlying local models, which further strengthens its flexibility.
arxiv情報
著者 | Jingzhi Gong,Tao Chen,Rami Bahsoon |
発行日 | 2024-11-20 12:40:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google