Rule-based Out-Of-Distribution Detection

要約

分布外の検出は、機械学習の導入において最も重要な問題の 1 つです。
データ アナリストは、運用中のデータがトレーニング フェーズに準拠していることを確認するだけでなく、環境が変化して自律的な決定が安全でなくなるかどうかを理解する必要があります。
この論文の手法は、説明可能な人工知能 (XAI) に基づいています。
XAI モデルで見られるように、さまざまな指標を考慮して、分布内と分布外の類似性を特定します。
このアプローチはノンパラメトリックであり、分布の仮定がありません。
複雑なシナリオ (予知保全、車両の隊列走行、サイバーセキュリティにおける秘密チャネル) に対する検証により、訓練と運用条件の近接性の検出と評価の両方の精度が裏付けられます。
結果は、オープン ソースおよびオープン データを介して次のリンクから入手できます: https://github.com/giacomo97cnr/Rule-based-ODD。

要約(オリジナル)

Out-of-distribution detection is one of the most critical issue in the deployment of machine learning. The data analyst must assure that data in operation should be compliant with the training phase as well as understand if the environment has changed in a way that autonomous decisions would not be safe anymore. The method of the paper is based on eXplainable Artificial Intelligence (XAI); it takes into account different metrics to identify any resemblance between in-distribution and out of, as seen by the XAI model. The approach is non-parametric and distributional assumption free. The validation over complex scenarios (predictive maintenance, vehicle platooning, covert channels in cybersecurity) corroborates both precision in detection and evaluation of training-operation conditions proximity. Results are available via open source and open data at the following link: https://github.com/giacomo97cnr/Rule-based-ODD.

arxiv情報

著者 Giacomo De Bernardi,Sara Narteni,Enrico Cambiaso,Maurizio Mongelli
発行日 2023-08-21 10:13:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク