Bias and Fairness in Computer Vision Applications of the Criminal Justice System

要約

AIによる警察業務に関わる差別的行為は、COMPAS、PredPol、ShotSpotterなどのアルゴリズムが少数派に不当な影響を与えていると非難され、ここ数年、多くの論争の的になっています。同時に、機械学習、特にコンピュータビジョンにおける公平性の問題も、学術的な研究の対象として増えてきている。本論文では、これらの領域がどのように交錯しているかを検証する。このような慣行が存在するようになった経緯と、それを緩和することの困難さについて情報を提供する。そして、現在開発中の3つのアプリケーションを検証し、それらが公正さに対してどのようなリスクをもたらすのか、またそのリスクをどのように軽減することができるのかを理解する。

要約(オリジナル)

Discriminatory practices involving AI-driven police work have been the subject of much controversies in the past few years, with algorithms such as COMPAS, PredPol and ShotSpotter being accused of unfairly impacting minority groups. At the same time, the issues of fairness in machine learning, and in particular in computer vision, have been the subject of a growing number of academic works. In this paper, we examine how these area intersect. We provide information on how these practices have come to exist and the difficulties in alleviating them. We then examine three applications currently in development to understand what risks they pose to fairness and how those risks can be mitigated.

arxiv情報

著者 Sophie Noiret,Jennifer Lumetzberger,Martin Kampel
発行日 2022-08-05 14:48:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク