要約
人工知能 (AI) テクノロジーの急速な進歩は、ガバナンスと規制の面で多くの新たな課題をもたらしています。
AI システムはさまざまな業界や分野に統合されており、意思決定者はこれらのシステムの機能と限界について包括的かつ微妙な理解を得ることが求められています。
この需要の重要な側面の 1 つは、機械学習モデルの結果を説明する能力です。これは、AI システムの透明性と信頼性を促進するために重要であるだけでなく、機械学習モデルが倫理的にトレーニングされるのを支援するためにも不可欠です。
この論文では、AI モデルの予測がその特徴によってどの程度簡単に説明できるかを定量化するための新しい指標を紹介します。
私たちのメトリクスは、説明可能性のさまざまな側面をスカラーに要約し、モデル予測のより包括的な理解を提供し、意思決定者と利害関係者の間のコミュニケーションを促進し、それによって AI システムの全体的な透明性と説明責任を高めます。
要約(オリジナル)
Rapid advancements in artificial intelligence (AI) technology have brought about a plethora of new challenges in terms of governance and regulation. AI systems are being integrated into various industries and sectors, creating a demand from decision-makers to possess a comprehensive and nuanced understanding of the capabilities and limitations of these systems. One critical aspect of this demand is the ability to explain the results of machine learning models, which is crucial to promoting transparency and trust in AI systems, as well as fundamental in helping machine learning models to be trained ethically. In this paper, we present novel metrics to quantify the degree of which AI model predictions can be easily explainable by its features. Our metrics summarize different aspects of explainability into scalars, providing a more comprehensive understanding of model predictions and facilitating communication between decision-makers and stakeholders, thereby increasing the overall transparency and accountability of AI systems.
arxiv情報
著者 | Cristian Munoz,Kleyton da Costa,Bernardo Modenesi,Adriano Koshiyama |
発行日 | 2024-01-29 18:56:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google