Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning

要約

半教師あり学習 (SSL) 手法は、ラベル付きデータ、ラベルなしデータ、テスト データが同じ分布からのものであることを前提としています。
オープンセット半教師あり学習 (オープンセット SSL) では、ラベルなしデータとテスト データに、ラベル付きデータ (インライア) では観察されない新しいカテゴリ (外れ値) が含まれる、より現実的なシナリオを考慮します。
これまでの研究のほとんどは、バイナリ分類器による外れ値の検出に焦点を当てていましたが、拡張性が不十分であり、さまざまな種類の不確実性を区別できないという問題がありました。
この論文では、これらの制限に対処するための新しいフレームワーク、Adaptive Negative Evidential Deep Learning (ANEDL) を提案します。
具体的には、まず、さまざまな種類の不確実性を定量化するための外れ値検出器として証拠深層学習 (EDL) を導入し、自己学習と推論のためのさまざまな不確実性メトリクスを設計します。
さらに、新しい適応ネガティブ最適化戦略を提案し、内値と外れ値の両方を含むラベルのないデータセットに合わせて EDL をよりカスタマイズします。
経験的に実証されているように、私たちが提案する方法は、4 つのデータセットにわたって既存の最先端の方法よりも優れています。

要約(オリジナル)

Semi-supervised learning (SSL) methods assume that labeled data, unlabeled data and test data are from the same distribution. Open-set semi-supervised learning (Open-set SSL) considers a more practical scenario, where unlabeled data and test data contain new categories (outliers) not observed in labeled data (inliers). Most previous works focused on outlier detection via binary classifiers, which suffer from insufficient scalability and inability to distinguish different types of uncertainty. In this paper, we propose a novel framework, Adaptive Negative Evidential Deep Learning (ANEDL) to tackle these limitations. Concretely, we first introduce evidential deep learning (EDL) as an outlier detector to quantify different types of uncertainty, and design different uncertainty metrics for self-training and inference. Furthermore, we propose a novel adaptive negative optimization strategy, making EDL more tailored to the unlabeled dataset containing both inliers and outliers. As demonstrated empirically, our proposed method outperforms existing state-of-the-art methods across four datasets.

arxiv情報

著者 Yang Yu,Danruo Deng,Furui Liu,Yueming Jin,Qi Dou,Guangyong Chen,Pheng-Ann Heng
発行日 2024-03-27 15:44:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク