Combating noisy labels in object detection datasets

要約

タイトル:物体検出データセットにおけるノイズラベルの克服

要約:

– ニューラルネットワークのトレーニングデータセットの品質は、結果のモデルの正確性に影響を与える重要な要因です。物体検出などの難しいタスクでは、この効果が増幅されます。
– データセット内のエラーに対処することは、不正な例がいくつかあることを認め、信頼度を推定し、適切な重みを割り当てるか、トレーニング中に不確実な例を無視することに限られます。
– この研究では、異なるアプローチを提案しています。物体検出データセットの各ラベルの品質を評価し、欠落、誤った、誤ったラベルが付いた境界ボックスを特定して修正を提案するConfident Learning for Object Detection(CLOD)アルゴリズムを導入します。
– トレーニングデータセットの不正な例を見つけることに焦点を当てることで、根本的にそれらを除去できます。疑わしい境界ボックスは調査され、データセットの品質が向上し、すでに複雑なアーキテクチャをさらに複雑にすることなく、より良いモデルにつながります。
– 提案された方法は、偽陽性率が0.3以下で人工的に乱された境界ボックスの99%を指摘することができます。この方法は、人気のある物体検出データセットを修正する有望な方法と考えられます。

要約(オリジナル)

The quality of training datasets for deep neural networks is a key factor contributing to the accuracy of resulting models. This effect is amplified in difficult tasks such as object detection. Dealing with errors in datasets is often limited to accepting that some fraction of examples is incorrect, estimating their confidence and assigning appropriate weights or ignoring uncertain ones during training. In this work, we propose a different approach. We introduce the Confident Learning for Object Detection (CLOD) algorithm for assessing the quality of each label in object detection datasets, identifying missing, spurious, mislabeled and mislocated bounding boxes and suggesting corrections. By focusing on finding incorrect examples in the training datasets, we can eliminate them at the root. Suspicious bounding boxes can be reviewed in order to improve the quality of the dataset, leading to better models without further complicating their already complex architectures. The proposed method is able to point out 99% of artificially disturbed bounding boxes with a false positive rate below 0.3. We see this method as a promising path to correcting popular object detection datasets.

arxiv情報

著者 Krystian Chachuła,Jakub Łyskawa,Bartłomiej Olber,Piotr Frątczak,Adam Popowicz,Krystian Radlak
発行日 2023-05-11 15:46:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク