Explainable Bayesian Optimization

要約

産業界では、ベイズ最適化 (BO) は、サイバー物理システムの人間と AI の協調パラメータ調整に広く適用されています。
ただし、BO のソリューションは、近似誤差や単純化された目標により人間の専門家の実際の目標から逸脱する可能性があり、その後の調整が必要になります。
BO のブラックボックス的な性質により、専門家が BO の推奨事項を信頼しないため、共同調整プロセスが制限されます。
現在の説明可能な AI (XAI) 手法は最適化向けに調整されていないため、このギャップに対処することができません。
このギャップを埋めるために、多目的最適化を通じて高品質の説明を生成するポストホックなルールベースの説明可能性手法である TNTRules (TUNE-NOTUNE Rules) を提案します。
ベンチマーク最適化問題と実際のハイパーパラメータ最適化タスクの評価では、高品質の説明を生成する際に、TNTRules が最先端の XAI 手法よりも優れていることが実証されました。
この成果は、BO と XAI の交差に貢献し、現実世界のアプリケーションに解釈可能な最適化手法を提供します。

要約(オリジナル)

In industry, Bayesian optimization (BO) is widely applied in the human-AI collaborative parameter tuning of cyber-physical systems. However, BO’s solutions may deviate from human experts’ actual goal due to approximation errors and simplified objectives, requiring subsequent tuning. The black-box nature of BO limits the collaborative tuning process because the expert does not trust the BO recommendations. Current explainable AI (XAI) methods are not tailored for optimization and thus fall short of addressing this gap. To bridge this gap, we propose TNTRules (TUNE-NOTUNE Rules), a post-hoc, rule-based explainability method that produces high quality explanations through multiobjective optimization. Our evaluation of benchmark optimization problems and real-world hyperparameter optimization tasks demonstrates TNTRules’ superiority over state-of-the-art XAI methods in generating high quality explanations. This work contributes to the intersection of BO and XAI, providing interpretable optimization techniques for real-world applications.

arxiv情報

著者 Tanmay Chakraborty,Christin Seifert,Christian Wirth
発行日 2024-01-24 09:59:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク