要約
自動機械学習 (AutoML) は、ML モデルの作成を合理化します。
ほとんどの方法では予測品質に基づいて「最適な」モデルが選択されますが、解釈可能性やリソース消費などの他の側面を認識することが重要です。
ディープ ニューラル ネットワーク (DNN) のモデルは計算集約型のブラック ボックスとして認識されることが多いため、これはディープ ニューラル ネットワーク (DNN) のコンテキストで特に重要です。
時系列予測という困難な領域では、DNN は驚くべき結果を達成しますが、モデルを自動的に選択するための特殊なアプローチは不足しています。
この論文では、自動化された説明可能な多目的モデル選択のための新しい方法である AutoXPCR を提案します。
私たちのアプローチは、メタ学習を活用して、(P) 予測誤差、(C) 複雑さ、および (R) リソース需要を含む PCR 基準に沿ってモデルのパフォーマンスを推定します。
当社のインタラクティブなフレームワークでは、それほど複雑ではないモデルを優先し、副産物として推奨事項の説明を提供できるため、説明可能性は複数のレベルで対処されます。
さまざまなドメインの 114 データ セットにわたる 1000 以上の構成に AutoXPCR を展開することで、実用的な実現可能性を実証します。
私たちの方法は明らかに他のモデル選択アプローチよりも優れています。平均して、可能な限り最高の品質の 90% のモデルを推奨するのに必要な計算コストは 20% だけです。
要約(オリジナル)
Automated machine learning (AutoML) streamlines the creation of ML models. While most methods select the ‘best’ model based on predictive quality, it’s crucial to acknowledge other aspects, such as interpretability and resource consumption. This holds particular importance in the context of deep neural networks (DNNs), as these models are often perceived as computationally intensive black boxes. In the challenging domain of time series forecasting, DNNs achieve stunning results, but specialized approaches for automatically selecting models are scarce. In this paper, we propose AutoXPCR – a novel method for automated and explainable multi-objective model selection. Our approach leverages meta-learning to estimate any model’s performance along PCR criteria, which encompass (P)redictive error, (C)omplexity, and (R)esource demand. Explainability is addressed on multiple levels, as our interactive framework can prioritize less complex models and provide by-product explanations of recommendations. We demonstrate practical feasibility by deploying AutoXPCR on over 1000 configurations across 114 data sets from various domains. Our method clearly outperforms other model selection approaches – on average, it only requires 20% of computation costs for recommending models with 90% of the best-possible quality.
arxiv情報
著者 | Raphael Fischer,Amal Saadallah |
発行日 | 2023-12-20 14:04:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google