Rule-based Out-Of-Distribution Detection

要約

分布外検出は、機械学習の導入において最も重要な問題の1つである。データアナリストは、運用中のデータが学習段階に準拠していることを保証する必要があり、また、自律的な判断が安全でなくなるような環境の変化があったかどうかを理解する必要があります。本論文の手法は、eXplainable Artificial Intelligence(XAI)に基づくもので、XAIモデルによる分布内と分布外の類似性を識別するために、さまざまな指標を考慮に入れている。このアプローチは、ノンパラメトリックで分布の仮定がありません。複雑なシナリオ(予知保全、車両プラトゥーニング、サイバーセキュリティの秘密チャンネル)に対する検証では、検出の精度と訓練と操作の条件の近接性の評価の両方が裏付けられました。

要約(オリジナル)

Out-of-distribution detection is one of the most critical issue in the deployment of machine learning. The data analyst must assure that data in operation should be compliant with the training phase as well as understand if the environment has changed in a way that autonomous decisions would not be safe anymore. The method of the paper is based on eXplainable Artificial Intelligence (XAI); it takes into account different metrics to identify any resemblance between in-distribution and out of, as seen by the XAI model. The approach is non-parametric and distributional assumption free. The validation over complex scenarios (predictive maintenance, vehicle platooning, covert channels in cybersecurity) corroborates both precision in detection and evaluation of training-operation conditions proximity.

arxiv情報

著者 Giacomo De Bernardi,Sara Narteni,Enrico Cambiaso,Maurizio Mongelli
発行日 2023-03-03 11:26:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI パーマリンク