要約
ディープラーニングの分野における最近の進歩と、知覚のためのディープ ニューラル ネットワーク (DNN) の優れたパフォーマンスにより、自動運転 (AD) システムでの使用の需要が増加しています。
このようなシステムの安全性は最も重要であるため、DNN の固有の特性を考慮する必要があります。
体系的かつ包括的なアプローチで DNN ベースの認識コンポーネントを備えた AD システムの安全性を達成するために、いわゆる安全性の懸念が適切な構造要素として導入されています。
一方で、安全性への懸念の概念は、設計上、ISO 21448 (SOTIF) などの AD システムの安全性に関連する既存の規格とよく整合しています。
一方で、これはすでにいくつかの学術出版物や、ISO PAS 8800 などの AI の安全性に関する今後の標準に影響を与えています。安全性に関する懸念の概念は以前に導入されましたが、この文書では、さまざまな分野および安全性の専門家からのフィードバックを活用して、それを拡張および洗練しています。
現場で。
特に、このホワイトペーパーでは、理解を深め、部門を超えたチームが共同して懸念事項に対処できるようにするために、追加の分類を導入しています。
要約(オリジナル)
Recent advances in the field of deep learning and impressive performance of deep neural networks (DNNs) for perception have resulted in an increased demand for their use in automated driving (AD) systems. The safety of such systems is of utmost importance and thus requires to consider the unique properties of DNNs. In order to achieve safety of AD systems with DNN-based perception components in a systematic and comprehensive approach, so-called safety concerns have been introduced as a suitable structuring element. On the one hand, the concept of safety concerns is — by design — well aligned to existing standards relevant for safety of AD systems such as ISO 21448 (SOTIF). On the other hand, it has already inspired several academic publications and upcoming standards on AI safety such as ISO PAS 8800. While the concept of safety concerns has been previously introduced, this paper extends and refines it, leveraging feedback from various domain and safety experts in the field. In particular, this paper introduces an additional categorization for a better understanding as well as enabling cross-functional teams to jointly address the concerns.
arxiv情報
著者 | Stephanie Abrecht,Alexander Hirsch,Shervin Raafatnia,Matthias Woehrle |
発行日 | 2023-09-07 15:25:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google