要約
この研究では、分布シフト下でのニューラル ネットワーク予測の信頼性を定量化するための新しいツールとして、誤分類尤度行列 (MLM) を導入します。
MLM は、ソフトマックス出力とクラスタリング技術を利用して、トレーニングされたニューラル ネットワークの予測とクラス重心の間の距離を測定することによって取得されます。
これらの距離を分析することで、MLM はモデルの誤分類傾向の包括的なビューを提供し、意思決定者が最も一般的かつ重大なエラーの原因を特定できるようにします。
MLM により、モデル改善の優先順位付けと、許容可能なリスク レベルに基づいた意思決定しきい値の確立が可能になります。
このアプローチは、畳み込みニューラル ネットワーク (CNN) とデータセットの摂動バージョンを使用して MNIST データセット上で評価され、分布の変化をシミュレートします。
この結果は、予測の信頼性を評価する際の MLM の有効性を実証し、ニューラル ネットワークの解釈可能性とリスク軽減機能を強化する可能性を強調しています。
この研究の意義は画像分類を超えて広がり、自動運転車などの自律システムへの継続的な応用により、複雑な現実世界の環境における意思決定の安全性と信頼性が向上します。
要約(オリジナル)
This study introduces the Misclassification Likelihood Matrix (MLM) as a novel tool for quantifying the reliability of neural network predictions under distribution shifts. The MLM is obtained by leveraging softmax outputs and clustering techniques to measure the distances between the predictions of a trained neural network and class centroids. By analyzing these distances, the MLM provides a comprehensive view of the model’s misclassification tendencies, enabling decision-makers to identify the most common and critical sources of errors. The MLM allows for the prioritization of model improvements and the establishment of decision thresholds based on acceptable risk levels. The approach is evaluated on the MNIST dataset using a Convolutional Neural Network (CNN) and a perturbed version of the dataset to simulate distribution shifts. The results demonstrate the effectiveness of the MLM in assessing the reliability of predictions and highlight its potential in enhancing the interpretability and risk mitigation capabilities of neural networks. The implications of this work extend beyond image classification, with ongoing applications in autonomous systems, such as self-driving cars, to improve the safety and reliability of decision-making in complex, real-world environments.
arxiv情報
著者 | Daniel Sikar,Artur Garcez,Robin Bloomfield,Tillman Weyde,Kaleem Peeroo,Naman Singh,Maeve Hutchinson,Mirela Reljan-Delaney |
発行日 | 2024-07-10 16:43:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google