要約
分布外検出は、機械学習の展開における最も重要な問題の 1 つです。
データ アナリストは、運用中のデータがトレーニング フェーズに準拠していることを保証するとともに、自律的な決定がもはや安全でなくなるような方法で環境が変化したかどうかを理解する必要があります。
この論文の方法は、説明可能な人工知能 (XAI) に基づいています。
XAI モデルで見られるように、さまざまなメトリックを考慮して、ディストリビューション内とディストリビューション外の類似点を識別します。
このアプローチはノンパラメトリックで、分布の仮定がありません。
複雑なシナリオ (予知保全、車両の隊列走行、サイバーセキュリティの秘密チャネル) に対する検証は、トレーニング操作条件の近接性の検出と評価の両方の精度を裏付けています。
結果は、https://github.com/giacomo97cnr/Rule-based-ODD のリンクでオープン ソースとオープン データを介して入手できます。
要約(オリジナル)
Out-of-distribution detection is one of the most critical issue in the deployment of machine learning. The data analyst must assure that data in operation should be compliant with the training phase as well as understand if the environment has changed in a way that autonomous decisions would not be safe anymore. The method of the paper is based on eXplainable Artificial Intelligence (XAI); it takes into account different metrics to identify any resemblance between in-distribution and out of, as seen by the XAI model. The approach is non-parametric and distributional assumption free. The validation over complex scenarios (predictive maintenance, vehicle platooning, covert channels in cybersecurity) corroborates both precision in detection and evaluation of training-operation conditions proximity. Results are available via open source and open data at the following link: https://github.com/giacomo97cnr/Rule-based-ODD.
arxiv情報
著者 | Giacomo De Bernardi,Sara Narteni,Enrico Cambiaso,Maurizio Mongelli |
発行日 | 2023-03-08 08:19:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google