要約
現在、ニューラル ネットワークはさまざまな問題を解決するために一般的に使用されています。
残念ながら、その有効性にもかかわらず、決定を説明することなく答えを提供できるブラックボックスとして認識されることが多く、これにより多くの倫理的および法的懸念が生じます。
幸いなことに、説明可能性の分野は、ユーザーがこれらの結果を理解するのに役立ちます。
機械学習のこの側面により、ユーザーはモデルの意思決定プロセスを把握し、その結果の関連性を検証できます。
この記事では、ビデオ データから異常検出を実行する「時間分散型」convRNN によって実行される学習プロセスに焦点を当てます。
要約(オリジナル)
Nowadays, neural networks are commonly used to solve various problems. Unfortunately, despite their effectiveness, they are often perceived as black boxes capable of providing answers without explaining their decisions, which raises numerous ethical and legal concerns. Fortunately, the field of explainability helps users understand these results. This aspect of machine learning allows users to grasp the decision-making process of a model and verify the relevance of its outcomes. In this article, we focus on the learning process carried out by a “time distributed“ convRNN, which performs anomaly detection from video data.
arxiv情報
| 著者 | Fabien Poirier |
| 発行日 | 2024-11-08 17:10:23+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google