Optimal partition of feature using Bayesian classifier

要約

タイトル:ベイジアン分類器を用いた最適特徴分割

要約:

– Naive Bayesian分類器は、ベイジアン理論を用いた分類方法の中で人気がある。
– 入力変数の間に条件付きの相関があるという概念は理論上では良いように思えるが、投票スタイルの振る舞いを導くことがある。
– 条件付き独立性を実現することはしばしば難しく、推定値に意思決定の偏りを導入することがある。
– Naive Bayesでは、ある特徴は独立した特徴と呼ばれ、分類を予測する際に条件付きの相関や依存関係がない。
– この論文では、Comonotone-Independence Classifier(CIBer)という新しい技術を提案することで、Naive Bayes方法が抱える課題を克服することに焦点を当て、特徴の最適分割に取り組んでいる。
– 異なるデータセットに対して、CIBer技術の効果を明確に示し、Random ForestやXGBoostなどのモデルと比較して、より低いエラー率とより高いまたは同等の精度を達成している。

要約(オリジナル)

The Naive Bayesian classifier is a popular classification method employing the Bayesian paradigm. The concept of having conditional dependence among input variables sounds good in theory but can lead to a majority vote style behaviour. Achieving conditional independence is often difficult, and they introduce decision biases in the estimates. In Naive Bayes, certain features are called independent features as they have no conditional correlation or dependency when predicting a classification. In this paper, we focus on the optimal partition of features by proposing a novel technique called the Comonotone-Independence Classifier (CIBer) which is able to overcome the challenges posed by the Naive Bayes method. For different datasets, we clearly demonstrate the efficacy of our technique, where we achieve lower error rates and higher or equivalent accuracy compared to models such as Random Forests and XGBoost.

arxiv情報

著者 Sanjay Vishwakarma,Srinjoy Ganguly
発行日 2023-04-27 21:19:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク