要約
PiML ($\pi$-ML、/`pai.`em.`el/ と読みます) は、解釈可能な機械学習モデルの開発とモデル診断のための、統合されたオープンアクセスの Python ツールボックスです。
データ パイプライン、モデル トレーニング、モデルの解釈と説明、モデルの診断と比較を含む、ローコード モードとハイコード モードの両方の機械学習ワークフローを使用して設計されています。
このツールボックスは、固有のローカルおよび/またはグローバルな解釈可能性を備えた、解釈可能なモデル (GAM、GAMI-Net、XGB2 など) の増大するリストをサポートします。
また、モデルに依存しない説明可能性ツール (PFI、PDP、LIME、SHAP など) およびモデルに依存しない強力な診断スイート (弱点、不確実性、堅牢性、公平性など) もサポートしています。
品質保証のための PiML モデルとテストの既存の MLOps プラットフォームへの統合は、柔軟なハイコード API によって可能になります。
さらに、PiML ツールボックスには、銀行業務におけるモデル開発および検証用のアプリケーションを含む、包括的なユーザー ガイドと実践的なサンプルが付属しています。
プロジェクトは https://github.com/SelfExplainML/PiML-Toolbox で入手できます。
要約(オリジナル)
PiML (read $\pi$-ML, /`pai.`em.`el/) is an integrated and open-access Python toolbox for interpretable machine learning model development and model diagnostics. It is designed with machine learning workflows in both low-code and high-code modes, including data pipeline, model training, model interpretation and explanation, and model diagnostics and comparison. The toolbox supports a growing list of interpretable models (e.g. GAM, GAMI-Net, XGB2) with inherent local and/or global interpretability. It also supports model-agnostic explainability tools (e.g. PFI, PDP, LIME, SHAP) and a powerful suite of model-agnostic diagnostics (e.g. weakness, uncertainty, robustness, fairness). Integration of PiML models and tests to existing MLOps platforms for quality assurance are enabled by flexible high-code APIs. Furthermore, PiML toolbox comes with a comprehensive user guide and hands-on examples, including the applications for model development and validation in banking. The project is available at https://github.com/SelfExplainML/PiML-Toolbox.
arxiv情報
著者 | Agus Sudjianto,Aijun Zhang,Zebin Yang,Yu Su,Ningzhou Zeng |
発行日 | 2023-05-16 15:30:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google