A unified weighting framework for evaluating nearest neighbour classification

要約

我々は、古典的 (NN)、ファジー (FNN)、およびファジーラフ (FRNN) 最近傍分類の最初の包括的かつ大規模な評価を提示します。
最近傍重み付けに関する既存の提案がカーネル関数の形式で標準化され、テスト インスタンスの最近傍の距離値および/またはランクに適用できることを示します。
さらに、一般的に使用される 3 つの距離関数と 4 つのスケーリング尺度を特定します。
私たちは、85 の実際の分類データセットのコレクションに基づいて、これらの選択肢を体系的に評価します。
NN、FNN、FRNN はすべて、ボスコビッチ距離で最高のパフォーマンスを発揮することがわかります。
NN と FRNN は、サムワースの順位重みと距離重みの組み合わせと、中央値 ($r_1$)、標準偏差 ($r_2$)、または四分位範囲 ($r_{\infty}) の周囲の平均絶対偏差によるスケーリングを組み合わせて使用​​すると、最も優れたパフォーマンスを発揮します。
^*$)、一方、FNN はサムワース距離重みと $r_1$ または $r_2$ スケーリングのみで最高のパフォーマンスを発揮します。
また、ファジー Yager 否定に基づく新しいカーネルを導入し、NN が Yager 距離重みと同等のパフォーマンスを達成することを示します。Yager 距離重みは、サムワース距離重みとランク重みの組み合わせよりも実装が簡単です。
最後に、FRNN が一般に NN よりも優れたパフォーマンスを示し、ひいては NN が系統的に FNN よりも優れたパフォーマンスを発揮することを示します。

要約(オリジナル)

We present the first comprehensive and large-scale evaluation of classical (NN), fuzzy (FNN) and fuzzy rough (FRNN) nearest neighbour classification. We show that existing proposals for nearest neighbour weighting can be standardised in the form of kernel functions, applied to the distance values and/or ranks of the nearest neighbours of a test instance. Furthermore, we identify three commonly used distance functions and four scaling measures. We systematically evaluate these choices on a collection of 85 real-life classification datasets. We find that NN, FNN and FRNN all perform best with Boscovich distance. NN and FRNN perform best with a combination of Samworth rank- and distance weights and scaling by the mean absolute deviation around the median ($r_1$), the standard deviaton ($r_2$) or the interquartile range ($r_{\infty}^*$), while FNN performs best with only Samworth distance-weights and $r_1$- or $r_2$-scaling. We also introduce a new kernel based on fuzzy Yager negation, and show that NN achieves comparable performance with Yager distance-weights, which are simpler to implement than a combination of Samworth distance- and rank-weights. Finally, we demonstrate that FRNN generally outperforms NN, which in turns performs systematically better than FNN.

arxiv情報

著者 Oliver Urs Lenz,Henri Bollaert,Chris Cornelis
発行日 2023-11-28 15:24:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク