Deep Partial Multi-Label Learning with Graph Disambiguation

要約

タイトル:グラフ・ディサンビギュエーションとディープ・パーシャル・マルチラベル学習

要約:
– Partial Multi-Label Learning (PML) は、候補ラベルセットを使用し、複数の正解ラベルと偽陽性ラベルから構成される各データ例を学習する方法である。
– PML問題に対して、正確な信頼度スコアを推定できるグラフベースの手法が広く使われるようになっている。
– しかしながら、これらの手法は線形マルチラベル分類器を採用しているため、優れた性能を発揮できていないことが観察されている。
– 本研究では、グラフベースの手法を拡張し、ディープモデルに適用するための障害をいくつか取り除くことを試み、新しいディープ・パーシャルマルチ・ラベルモデルであるPLAINを提案する。
– 具体的には、インスタンスレベルおよびラベルレベルの類似性を導入してラベルの信頼度を回復し、ラベルの依存関係を利用する。
– 各トレーニングエポックで、ラベルはインスタンスグラフとラベルグラフで伝播され、比較的精度の高い疑似ラベルが生成され、数値ラベルに適合するようにディープモデルをトレーニングする。
– さらに、提案モデルの強健性を保証するためのリスク関数の詳細な分析を提供する。
– 合成データセットおよび3つの実世界PMLデータセットでの豊富な実験により、PLAINが最新の手法に比べて著しく優れた結果を示すことがわかった。

要約(オリジナル)

In partial multi-label learning (PML), each data example is equipped with a candidate label set, which consists of multiple ground-truth labels and other false-positive labels. Recently, graph-based methods, which demonstrate a good ability to estimate accurate confidence scores from candidate labels, have been prevalent to deal with PML problems. However, we observe that existing graph-based PML methods typically adopt linear multi-label classifiers and thus fail to achieve superior performance. In this work, we attempt to remove several obstacles for extending them to deep models and propose a novel deep Partial multi-Label model with grAph-disambIguatioN (PLAIN). Specifically, we introduce the instance-level and label-level similarities to recover label confidences as well as exploit label dependencies. At each training epoch, labels are propagated on the instance and label graphs to produce relatively accurate pseudo-labels; then, we train the deep model to fit the numerical labels. Moreover, we provide a careful analysis of the risk functions to guarantee the robustness of the proposed model. Extensive experiments on various synthetic datasets and three real-world PML datasets demonstrate that PLAIN achieves significantly superior results to state-of-the-art methods.

arxiv情報

著者 Haobo Wang,Shisong Yang,Gengyu Lyu,Weiwei Liu,Tianlei Hu,Ke Chen,Songhe Feng,Gang Chen
発行日 2023-05-10 04:02:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク