Graph based Label Enhancement for Multi-instance Multi-label learning

要約

タイトル: Multi-instance Multi-label学習のグラフベースラベルエンハンスメント
要約:
– Multi-instance Multi-label (MIML) 学習は、画像分類などの多数のドメインで広く利用されています。
– 存在するMIMLでは、関連するラベルはすべて同じ重要度を持つ論理的なラベルとして想定されています。
– しかし、実際のMIMLアプリケーションでは、1つの画像などの複数のインスタンスのラベルの重要度は異なることがあります。
– GLEMIMLは、グラフベースのラベルエンハンスメントに基づいた新しいMIMLフレームワークで、ラベルの重要性を反映させることができます。
– GLEMIMLは、グラフを構築することでインスタンス間の相関関係を特定し、非線形マッピングを介して特徴空間からラベル空間に暗示的に掘り出された情報を移行し、ラベルの重要性を回復させます。
– 最後に、GLEMIMLはマッチングと相互作用メカニズムによって強化されたデータでトレーニングされます。
– GLEMIMLは、ラベル分布メカニズムを掘り出すことによってMIMLの性能を効果的に改善し、複数のベンチマークデータセットでSOTA方法よりも優れた結果を示します。(AvgRank: 1.44 vs 2.92)

要約(オリジナル)

Multi-instance multi-label (MIML) learning is widely applicated in numerous domains, such as the image classification where one image contains multiple instances correlated with multiple logic labels simultaneously. The related labels in existing MIML are all assumed as logical labels with equal significance. However, in practical applications in MIML, significance of each label for multiple instances per bag (such as an image) is significant different. Ignoring labeling significance will greatly lose the semantic information of the object, so that MIML is not applicable in complex scenes with a poor learning performance. To this end, this paper proposed a novel MIML framework based on graph label enhancement, namely GLEMIML, to improve the classification performance of MIML by leveraging label significance. GLEMIML first recognizes the correlations among instances by establishing the graph and then migrates the implicit information mined from the feature space to the label space via nonlinear mapping, thus recovering the label significance. Finally, GLEMIML is trained on the enhanced data through matching and interaction mechanisms. GLEMIML (AvgRank: 1.44) can effectively improve the performance of MIML by mining the label distribution mechanism and show better results than the SOTA method (AvgRank: 2.92) on multiple benchmark datasets.

arxiv情報

著者 Houcheng Su,Jintao Huang,Daixian Liu,Rui Yan,Jiao Li,Chi-man Vong
発行日 2023-04-21 02:24:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: 68A65, cs.AI, cs.CV, I.m パーマリンク