PiML Toolbox for Interpretable Machine Learning Model Development and Validation

要約

PiML ($\pi$-ML、/`pai.`em.`el/ と読みます) は、解釈可能な機械学習モデルの開発とモデル診断のための、統合されたオープンアクセスの Python ツールボックスです。
データ パイプライン、モデル トレーニング、モデルの解釈と説明、モデルの診断と比較を含む、ローコード モードとハイコード モードの両方の機械学習ワークフローを使用して設計されています。
このツールボックスは、固有のローカルおよび/またはグローバルな解釈可能性を備えた、解釈可能なモデル (GAM、GAMI-Net、XGB2 など) の増大するリストをサポートします。
また、モデルに依存しない説明可能性ツール (PFI、PDP、LIME、SHAP など) およびモデルに依存しない強力な診断スイート (弱点、不確実性、堅牢性、公平性など) もサポートしています。
品質保証のための PiML モデルとテストの既存の MLOps プラットフォームへの統合は、柔軟なハイコード API によって可能になります。
さらに、PiML ツールボックスには、銀行業務におけるモデル開発および検証用のアプリケーションを含む、包括的なユーザー ガイドと実践的なサンプルが付属しています。
プロジェクトは https://github.com/SelfExplainML/PiML-Toolbox で入手できます。

要約(オリジナル)

PiML (read $\pi$-ML, /`pai.`em.`el/) is an integrated and open-access Python toolbox for interpretable machine learning model development and model diagnostics. It is designed with machine learning workflows in both low-code and high-code modes, including data pipeline, model training, model interpretation and explanation, and model diagnostics and comparison. The toolbox supports a growing list of interpretable models (e.g. GAM, GAMI-Net, XGB2) with inherent local and/or global interpretability. It also supports model-agnostic explainability tools (e.g. PFI, PDP, LIME, SHAP) and a powerful suite of model-agnostic diagnostics (e.g. weakness, uncertainty, robustness, fairness). Integration of PiML models and tests to existing MLOps platforms for quality assurance are enabled by flexible high-code APIs. Furthermore, PiML toolbox comes with a comprehensive user guide and hands-on examples, including the applications for model development and validation in banking. The project is available at https://github.com/SelfExplainML/PiML-Toolbox.

arxiv情報

著者 Agus Sudjianto,Aijun Zhang,Zebin Yang,Yu Su,Ningzhou Zeng
発行日 2023-05-16 15:30:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク