要約
部分ラベル学習 (PLL) は、それぞれが複数の候補ラベルに関連付けられたトレーニング サンプルから学習します (そのうち 1 つだけが有効です)。
近年、あいまいな監視に対処する強力な機能と最新のデータ拡張手法の推進力の恩恵を受けて、一貫性正則化ベースの PLL 手法が一連の成功を収め、主流になりました。
ただし、部分的なアノテーションが不十分になると、パフォーマンスが大幅に低下します。
このペーパーでは、簡単にアクセスできるラベルなしの例を活用して、部分的なラベルの一貫性の正規化を容易にします。
部分的な教師あり損失に加えて、私たちの方法は、ラベルなしデータの助けを借りて、ラベルレベルと表現レベルの両方でコントローラー主導の一貫性正則化を実行します。
初期の教師ありモデルの能力が不十分であることによる欠点を最小限に抑えるために、コントローラーを使用して現在の各予測の信頼度を推定し、その後の一貫性正則化をガイドします。
さらに、クラスの不均衡の問題を軽減するために、一貫性の正則化に参加する各クラスのサンプル数がほぼ同じになるように、信頼度のしきい値を動的に調整します。
実験では、私たちの方法がより実際的な状況で満足のいく性能を達成し、そのモジュールを既存の PLL 方法に適用して機能を強化できることが示されています。
要約(オリジナル)
Partial label learning (PLL) learns from training examples each associated with multiple candidate labels, among which only one is valid. In recent years, benefiting from the strong capability of dealing with ambiguous supervision and the impetus of modern data augmentation methods, consistency regularization-based PLL methods have achieved a series of successes and become mainstream. However, as the partial annotation becomes insufficient, their performances drop significantly. In this paper, we leverage easily accessible unlabeled examples to facilitate the partial label consistency regularization. In addition to a partial supervised loss, our method performs a controller-guided consistency regularization at both the label-level and representation-level with the help of unlabeled data. To minimize the disadvantages of insufficient capabilities of the initial supervised model, we use the controller to estimate the confidence of each current prediction to guide the subsequent consistency regularization. Furthermore, we dynamically adjust the confidence thresholds so that the number of samples of each class participating in consistency regularization remains roughly equal to alleviate the problem of class-imbalance. Experiments show that our method achieves satisfactory performances in more practical situations, and its modules can be applied to existing PLL methods to enhance their capabilities.
arxiv情報
著者 | Qian-Wei Wang,Bowen Zhao,Mingyan Zhu,Tianxiang Li,Zimo Liu,Shu-Tao Xia |
発行日 | 2023-12-13 11:53:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google