要約
このホワイトペーパーで焦点を当てている自動運転などの安全性が重要な領域を含む、無数の領域が機械学習 (ML) モデルに依存しています。
ML のブラック ボックスの性質は、一部の領域では単に迷惑なだけですが、安全性が重要な領域では、これにより ML モデルを信頼することが困難になります。
セーフティ クリティカルな領域で ML モデルを最大限に活用するには、人間の専門家が各決定をチェックすることなく、モデルの堅牢性と精度に対する信頼を向上させる方法があれば有益です。
この研究では、モデルのトレーニング データセットの堅牢性と完全性を確保することで、セーフティ クリティカルな領域で使用される ML モデルの信頼性を高める方法を提案します。
ML モデルはトレーニングに使用された内容を具体化するため、トレーニング データセットの完全性を確保することは、ML モデルのトレーニングの信頼性を高めるのに役立ちます。
この目的を達成するために、この論文では、トレーニング データセットのドメインの完全性と画質の堅牢性を検証するために、ドメイン オントロジーと画質特性オントロジーの使用を提案します。
この研究では、この方法の概念実証として、緊急道路車両ドメイン向けにオントロジーが構築される実験も紹介します。
要約(オリジナル)
Countless domains rely on Machine Learning (ML) models, including safety-critical domains, such as autonomous driving, which this paper focuses on. While the black box nature of ML is simply a nuisance in some domains, in safety-critical domains, this makes ML models difficult to trust. To fully utilize ML models in safety-critical domains, it would be beneficial to have a method to improve trust in model robustness and accuracy without human experts checking each decision. This research proposes a method to increase trust in ML models used in safety-critical domains by ensuring the robustness and completeness of the model’s training dataset. Because ML models embody what they are trained with, ensuring the completeness of training datasets can help to increase the trust in the training of ML models. To this end, this paper proposes the use of a domain ontology and an image quality characteristic ontology to validate the domain completeness and image quality robustness of a training dataset. This research also presents an experiment as a proof of concept for this method, where ontologies are built for the emergency road vehicle domain.
arxiv情報
著者 | Lynn Vonderhaar,Timothy Elvira,Tyler Procko,Omar Ochoa |
発行日 | 2024-06-21 16:03:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google