Comparison of decision trees with Local Interpretable Model-Agnostic Explanations (LIME) technique and multi-linear regression for explaining support vector regression model in terms of root mean square error (RMSE) values

要約

この研究では、サポート ベクター回帰モデルの説明に決定木が使用されます。
デシジョン ツリーは、ローカルな手法としてだけでなく、グローバルな手法としても機能します。
これらは、局所的な説明手法である LIME の一般的な手法および多重線形回帰と比較されます。
5 つのデータセットにわたる実行の 87% で、サポート ベクトル回帰に適合させた場合、デシジョン ツリーが LIME と比較して低い RMSE 値を与えることが観察されます。
結果の比較は統計的に有意です。
また、多重線形回帰は、サポート ベクトル回帰モデルに適合させた場合、5 つのデータセットにわたる実行の 73% で LIME と比較して RMSE 値が低くなりますが、結果の比較は統計的に有意ではありません。
また、局所的な説明手法として使用すると、デシジョン ツリーは LIME よりも優れたパフォーマンスを示し、結果の比較は統計的に有意です。

要約(オリジナル)

In this work the decision trees are used for explanation of support vector regression model. The decision trees act as a global technique as well as a local technique. They are compared against the popular technique of LIME which is a local explanatory technique and with multi linear regression. It is observed that decision trees give a lower RMSE value when fitted to support vector regression as compared to LIME in 87% of the runs over 5 datasets. The comparison of results is statistically significant. Multi linear regression also gives a lower RMSE value when fitted to support vector regression model as compared to LIME in 73% of the runs over 5 datasets but the comparison of results is not statistically significant. Also, when used as a local explanatory technique, decision trees give better performance than LIME and the comparison of results is statistically significant.

arxiv情報

著者 Amit Thombre
発行日 2024-04-10 14:36:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク