Regularization-Based Methods for Ordinal Quantification

要約

定量化、つまり、ラベルのないデータ項目のセットにおけるクラス有病率値の予測変数をトレーニングするタスクは、近年ますます注目を集めています。
ただし、ほとんどの定量化研究は、クラスが順序付けされていないバイナリおよびマルチクラス問題のアルゴリズムの開発に集中してきました。
ここでは、順序の場合、つまり、n>2 クラスのセットで全順序が定義されている場合を検討します。
私たちはこの分野に対して 3 つの主要な貢献を行っています。
まず、以前に利用できたものの不十分さを克服する順序定量化 (OQ) 研究用の 2 つのデータセットを作成して利用できるようにします。
次に、これまでの文献で提案されている最も重要な OQ アルゴリズムを実験的に比較します。
この目的を達成するために、データ マイニングや天体物理学など、お互いの発展を知らなかった非常に異なる研究分野の著者によって提案されたアルゴリズムをまとめます。
第三に、実験では既存のアルゴリズムを上回る新しいクラスの正則化 OQ アルゴリズムを提案します。
このパフォーマンス向上の鍵は、順序分布が実際には滑らかになる傾向があると仮定して、正則化によって通常ではありえない推定が防止されることです。
私たちは、いくつかの実世界のアプリケーションについてこの仮定を非公式に検証します。

要約(オリジナル)

Quantification, i.e., the task of training predictors of the class prevalence values in sets of unlabeled data items, has received increased attention in recent years. However, most quantification research has concentrated on developing algorithms for binary and multiclass problems in which the classes are not ordered. Here, we study the ordinal case, i.e., the case in which a total order is defined on the set of n>2 classes. We give three main contributions to this field. First, we create and make available two datasets for ordinal quantification (OQ) research that overcome the inadequacies of the previously available ones. Second, we experimentally compare the most important OQ algorithms proposed in the literature so far. To this end, we bring together algorithms proposed by authors from very different research fields, such as data mining and astrophysics, who were unaware of each others’ developments. Third, we propose a novel class of regularized OQ algorithms, which outperforms existing algorithms in our experiments. The key to this gain in performance is that our regularization prevents ordinally implausible estimates, assuming that ordinal distributions tend to be smooth in practice. We informally verify this assumption for several real-world applications.

arxiv情報

著者 Mirko Bunse,Alejandro Moreo,Fabrizio Sebastiani,Martin Senz
発行日 2023-10-13 16:04:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク