Learn From All: Erasing Attention Consistency for Noisy Label Facial Expression Recognition

要約

ノイズの多いラベルの表情認識 (FER) は、クラス間の類似性と注釈のあいまいさのために、従来のノイズの多いラベル分類タスクよりも困難です。
最近の研究では、主に損失の大きなサンプルを除外することで、この問題に取り組んでいます。
このホワイト ペーパーでは、新しい機能学習の観点から、ノイズの多いラベルの処理について説明します。
FER モデルは、潜在的な真実につながる特徴全体から学習するのではなく、ノイズの多いラベルに関連すると考えられる特徴の一部に焦点を当てることで、ノイズの多いサンプルを記憶することがわかりました。
それに触発されて、トレーニングプロセス中にノイズの多いサンプルを自動的に抑制するための新しい Erasing Attention Consistency (EAC) メソッドを提案します。
具体的には、最初に顔画像の反転セマンティックの一貫性を利用して、不均衡なフレームワークを設計します。
次に、入力画像をランダムに消去し、フリップ注意一貫性を使用して、モデルが特徴の一部に焦点を合わせないようにします。
EAC は、最先端のノイジー ラベル FER メソッドよりも大幅に優れており、CIFAR100 や Tiny-ImageNet などの多数のクラスを使用する他のタスクにうまく一般化できます。
コードは https://github.com/zyh-uaiaaaa/Erasing-Attention-Consistency で入手できます。

要約(オリジナル)

Noisy label Facial Expression Recognition (FER) is more challenging than traditional noisy label classification tasks due to the inter-class similarity and the annotation ambiguity. Recent works mainly tackle this problem by filtering out large-loss samples. In this paper, we explore dealing with noisy labels from a new feature-learning perspective. We find that FER models remember noisy samples by focusing on a part of the features that can be considered related to the noisy labels instead of learning from the whole features that lead to the latent truth. Inspired by that, we propose a novel Erasing Attention Consistency (EAC) method to suppress the noisy samples during the training process automatically. Specifically, we first utilize the flip semantic consistency of facial images to design an imbalanced framework. We then randomly erase input images and use flip attention consistency to prevent the model from focusing on a part of the features. EAC significantly outperforms state-of-the-art noisy label FER methods and generalizes well to other tasks with a large number of classes like CIFAR100 and Tiny-ImageNet. The code is available at https://github.com/zyh-uaiaaaa/Erasing-Attention-Consistency.

arxiv情報

著者 Yuhang Zhang,Chengrui Wang,Xu Ling,Weihong Deng
発行日 2022-09-20 11:15:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク