要約
画像ごとに部分的に観測されたラベルを用いてマルチラベル分類を学習する弱教師付きマルチラベル分類(WSML)課題は、その膨大なアノテーションコストのため、ますます重要となってきている。本研究では、まず、観測されないラベルを負のラベルとみなし、WSMLタスクをノイズの多いマルチラベル分類に見立てる。この観点から、ノイズの多いマルチクラスで最初に発見された暗記効果が、マルチラベルでも起こることを経験的に観察する。つまり、モデルはまずきれいなラベルの表現を学習し、その後、ノイズの多いラベルを記憶し始めるのである。この発見に基づいて、我々はWSMLのために、モデルがノイズの多いラベルを記憶するのを防ぐために、大きな損失サンプルを拒否または補正する新しい手法を提案する。提案手法は、重い複雑なコンポーネントを用いずに、Pascal VOC 2012, MS COCO, NUSWIDE, CUB, OpenImages V3データセットなどの部分ラベル設定において、従来のWSML手法よりも高い性能を発揮することがわかった。また、様々な分析により、我々の手法が実際にうまく機能することが示され、弱い教師ありマルチラベル分類において、大きな損失を適切に扱うことが重要であることが検証されました。我々のコードは https://github.com/snucml/LargeLossMatters で公開されています。
要約(オリジナル)
Weakly supervised multi-label classification (WSML) task, which is to learn a multi-label classification using partially observed labels per image, is becoming increasingly important due to its huge annotation cost. In this work, we first regard unobserved labels as negative labels, casting the WSML task into noisy multi-label classification. From this point of view, we empirically observe that memorization effect, which was first discovered in a noisy multi-class setting, also occurs in a multi-label setting. That is, the model first learns the representation of clean labels, and then starts memorizing noisy labels. Based on this finding, we propose novel methods for WSML which reject or correct the large loss samples to prevent model from memorizing the noisy label. Without heavy and complex components, our proposed methods outperform previous state-of-the-art WSML methods on several partial label settings including Pascal VOC 2012, MS COCO, NUSWIDE, CUB, and OpenImages V3 datasets. Various analysis also show that our methodology actually works well, validating that treating large loss properly matters in a weakly supervised multi-label classification. Our code is available at https://github.com/snucml/LargeLossMatters.
arxiv情報
著者 | Youngwook Kim,Jae Myung Kim,Zeynep Akata,Jungwoo Lee |
発行日 | 2022-06-08 08:30:24+00:00 |
arxivサイト | arxiv_id(pdf) |