要約
スマートフォンの顔認識から自動運転車の自動経路探索まで、マシンビジョンアルゴリズムはこれらの機能の中核を担っています。これらのシステムは、オブジェクトを識別・理解し、その後これらの情報から判断を下すことで、画像ベースのタスクを解決します。しかし、データセットのエラーは通常、アルゴリズムに誘導されたり、拡大されたりして、時には黒人をゴリラとして認識したり、検索結果で民族を誤って表現したりするような問題を引き起こすことがある。この論文では、データセットのエラーとその影響を追跡し、欠陥のあるデータセットは、限られたカテゴリ、包括的でないソーシング、不十分な分類の結果であることを明らかにする。
要約(オリジナル)
From face recognition in smartphones to automatic routing on self-driving cars, machine vision algorithms lie in the core of these features. These systems solve image based tasks by identifying and understanding objects, subsequently making decisions from these information. However, errors in datasets are usually induced or even magnified in algorithms, at times resulting in issues such as recognising black people as gorillas and misrepresenting ethnicities in search results. This paper tracks the errors in datasets and their impacts, revealing that a flawed dataset could be a result of limited categories, incomprehensive sourcing and poor classification.
arxiv情報
著者 | Hongrui Jin |
発行日 | 2022-11-03 14:34:28+00:00 |
arxivサイト | arxiv_id(pdf) |