要約
自動運転システムは、インテリジェント車両向けの Web of Things の範囲を拡張し、Web エコシステムの重要なコンポーネントとなっています。
従来の Web ベースのアプリケーションと同様に、公平性は、特に自動運転システム内の歩行者検出器のコンテキストにおいて、自動運転システムの高品質を確保するために不可欠な側面です。
しかし、現在の深層学習 (DL) ベースの歩行者検出器の公平性についての包括的な評価に関する文献は存在しません。
このギャップを埋めるために、大規模な現実世界のデータセットを使用して、人口統計グループ全体で広く検討されている 8 つの DL ベースの歩行者検出器を評価します。
徹底的な公平性評価を可能にするために、データセットに広範なアノテーションを提供し、その結果、16,070 の性別ラベル、20,115 の年齢ラベル、3,513 の肌の色調ラベルを持つ 8,311 枚の画像が得られました。
私たちの調査結果では、年齢に関連する重大な公平性の問題が明らかになりました。
成人の検出されない割合は、子供に比べて 20.14% 低くなります。
さらに、さまざまな運転シナリオが歩行者検知器の公平性にどのような影響を与えるかを調査します。
子供や女性では、低輝度と低コントラストに対する偏見が悪化する可能性があることがわかりました。
要約(オリジナル)
Autonomous driving systems have extended the spectrum of Web of Things for intelligent vehicles and have become an important component of the Web ecosystem. Similar to traditional Web-based applications, fairness is an essential aspect for ensuring the high quality of autonomous driving systems, particularly in the context of pedestrian detectors within them. However, there is an absence in the literature of a comprehensive assessment of the fairness of current Deep Learning (DL)-based pedestrian detectors. To fill the gap, we evaluate eight widely-explored DL-based pedestrian detectors across demographic groups on large-scale real-world datasets. To enable a thorough fairness evaluation, we provide extensive annotations for the datasets, resulting in 8,311 images with 16,070 gender labels, 20,115 age labels, and 3,513 skin tone labels. Our findings reveal significant fairness issues related to age. The undetected proportions for adults are 20.14% lower compared to children. Furthermore, we explore how various driving scenarios affect the fairness of pedestrian detectors. We find that the bias may exacerbate for children and females towards low brightness and low contrast.
arxiv情報
著者 | Xinyue Li,Zhenpeng Chen,Jie M. Zhang,Federica Sarro,Ying Zhang,Xuanzhe Liu |
発行日 | 2024-03-25 11:45:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google