Improving Multi-Label Contrastive Learning by Leveraging Label Distribution

要約

マルチラベル学習では、より良い表現を学習するための対照的な学習を活用することは、ポジティブとネガティブのサンプルを選択し、ラベル情報を効果的に利用する重要な課題に直面しています。
以前の研究では、ラベル間の重複に基づいて陽性および陰性のサンプルを選択し、ラベルごとの損失バランスに使用しました。
ただし、これらの方法は複雑な選択プロセスに悩まされており、さまざまなラベルのさまざまな重要性を説明できません。
これらの問題に対処するために、ラベル分布を通じてマルチラベルの対照学習を改善する新しい方法を提案します。
具体的には、正と負のサンプルを選択する場合、ラベル間に交差があるかどうかを検討する必要があります。
ラベル間の関係をモデル化するために、それぞれラジアルベース関数(RBF)と対照損失に基づいて、論理ラベルからラベル分布を回復する2つの方法を紹介します。
画像やベクトルデータセットを含む、広く使用されている9つの広く使用されているマルチラベルデータセットでの方法を評価します。
結果は、私たちの方法が6つの評価メトリックで最先端の方法よりも優れていることを示しています。

要約(オリジナル)

In multi-label learning, leveraging contrastive learning to learn better representations faces a key challenge: selecting positive and negative samples and effectively utilizing label information. Previous studies selected positive and negative samples based on the overlap between labels and used them for label-wise loss balancing. However, these methods suffer from a complex selection process and fail to account for the varying importance of different labels. To address these problems, we propose a novel method that improves multi-label contrastive learning through label distribution. Specifically, when selecting positive and negative samples, we only need to consider whether there is an intersection between labels. To model the relationships between labels, we introduce two methods to recover label distributions from logical labels, based on Radial Basis Function (RBF) and contrastive loss, respectively. We evaluate our method on nine widely used multi-label datasets, including image and vector datasets. The results demonstrate that our method outperforms state-of-the-art methods in six evaluation metrics.

arxiv情報

著者 Ning Chen,Shen-Huan Lyu,Tian-Shuang Wu,Yanyan Wang,Bin Tang
発行日 2025-01-31 14:00:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク