Explaining Bayesian Optimization by Shapley Values Facilitates Human-AI Collaboration

要約

ガウスプロセス (GP) を使用したベイジアン最適化 (BO) は、ブラックボックス最適化問題に不可欠なアルゴリズムとなっています。
多少の皮肉がないわけではありませんが、BO はそれ自体がブラック ボックスであるとみなされることが多く、特定のパラメーターの評価が提案される理由を説明する方法が不足しています。
これは、ロボット工学などの BO の人間参加型アプリケーションに特に関係します。
我々は、ゲーム理論的な Shapley 値によって BO の提案を解釈するためのフレームワークである ShapleyBO を提案することで、この問題に対処します。ShapleyBO は、BO の獲得関数に対する各パラメータの寄与を定量化します。
Shapley 値の線形性を利用することで、各パラメーターが信頼限界などの追加取得関数の BO の探索と活用をどの程度強力に推進するかをさらに特定できます。
また、ShapleyBO が探査への貢献を偶然性と認識論的な不確実性を探求する貢献に分解できることも示します。
さらに、私たちの方法は ShapleyBO 支援のヒューマン マシン インターフェイス (HMI) を生み出し、提案が人間の推論と一致しない場合にユーザーが BO に介入できるようにします。
私たちは、人間参加型 BO によるウェアラブル ロボット デバイス (補助的な背部外骨格スーツ) のパーソナライズのユースケースに対するこの HMI の利点を実証します。
結果は、ShapleyBO にアクセスできる人間と BO チームは、そうでないチームよりも後悔が少ないことを示唆しています。

要約(オリジナル)

Bayesian optimization (BO) with Gaussian processes (GP) has become an indispensable algorithm for black box optimization problems. Not without a dash of irony, BO is often considered a black box itself, lacking ways to provide reasons as to why certain parameters are proposed to be evaluated. This is particularly relevant in human-in-the-loop applications of BO, such as in robotics. We address this issue by proposing ShapleyBO, a framework for interpreting BO’s proposals by game-theoretic Shapley values.They quantify each parameter’s contribution to BO’s acquisition function. Exploiting the linearity of Shapley values, we are further able to identify how strongly each parameter drives BO’s exploration and exploitation for additive acquisition functions like the confidence bound. We also show that ShapleyBO can disentangle the contributions to exploration into those that explore aleatoric and epistemic uncertainty. Moreover, our method gives rise to a ShapleyBO-assisted human machine interface (HMI), allowing users to interfere with BO in case proposals do not align with human reasoning. We demonstrate this HMI’s benefits for the use case of personalizing wearable robotic devices (assistive back exosuits) by human-in-the-loop BO. Results suggest human-BO teams with access to ShapleyBO can achieve lower regret than teams without.

arxiv情報

著者 Julian Rodemann,Federico Croppi,Philipp Arens,Yusuf Sale,Julia Herbinger,Bernd Bischl,Eyke Hüllermeier,Thomas Augustin,Conor J. Walsh,Giuseppe Casalicchio
発行日 2024-03-07 16:13:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG, cs.RO, F.2.2, stat.ML パーマリンク