要約
ラベル分布学習(LDL)は、各インスタンスにラベル分布を割り当てる新しい機械学習パラダイムである。多くのLDL手法は、指数関数的な大きさの出力空間を解決するために、学習プロセスにおいてラベルの相関を利用することを提案しており、その多くはラベル分布の低ランク構造を利用してラベルの相関を捉えている。しかし、最近の研究では、ラベル分布行列は一般的にフルランクであることが明らかになり、低ランクラベル相関を利用する研究に課題を投げかけている。マルチラベルは一般に低ランクであり、低ランクラベル相関はマルチラベル学習(MLL)の文献で広く採用されている。これに触発され、我々はLDLに補助的なMLL処理を導入し、LDLではなくMLLで低ランクラベル相関を捉える。このように、低ランクラベル相関は我々のLDL手法において適切に利用される。我々は包括的な実験を行い、我々の手法が既存のLDL手法よりも優れていることを実証した。さらに、アブレーション研究により、補助MLLで低ランクラベル相関を利用する利点が正当化される。
要約(オリジナル)
Label Distribution Learning (LDL) is a novel machine learning paradigm that assigns label distribution to each instance. Many LDL methods proposed to leverage label correlation in the learning process to solve the exponential-sized output space; among these, many exploited the low-rank structure of label distribution to capture label correlation. However, recent studies disclosed that label distribution matrices are typically full-rank, posing challenges to those works exploiting low-rank label correlation. Note that multi-label is generally low-rank; low-rank label correlation is widely adopted in multi-label learning (MLL) literature. Inspired by that, we introduce an auxiliary MLL process in LDL and capture low-rank label correlation on that MLL rather than LDL. In such a way, low-rank label correlation is appropriately exploited in our LDL methods. We conduct comprehensive experiments and demonstrate that our methods are superior to existing LDL methods. Besides, the ablation studies justify the advantages of exploiting low-rank label correlation in the auxiliary MLL.
arxiv情報
著者 | Zhiqiang Kou jing wang yuheng jia xin geng |
発行日 | 2023-08-03 13:06:45+00:00 |
arxivサイト | arxiv_id(pdf) |