On Learning with LAD

要約

データの論理分析である LAD は、選言正規形 (DNF) 表現を持つブール関数に基づいて 2 クラスの分類器を生成する手法です。
LAD アルゴリズムは最適化技術を採用していますが、結果として得られるバイナリ分類子またはバイナリ ルールは過剰適合を引き起こしません。
仮説セットが少数の三次単項式を含む DNF で構成される LAD モデルの Vapnik-Chervonenkis 次元 (VC 次元) を推定することにより、過学習が存在しないことの理論的正当化を提案します。
私たちは観察を実証的に説明し、確認します。

要約(オリジナル)

The logical analysis of data, LAD, is a technique that yields two-class classifiers based on Boolean functions having disjunctive normal form (DNF) representation. Although LAD algorithms employ optimization techniques, the resulting binary classifiers or binary rules do not lead to overfitting. We propose a theoretical justification for the absence of overfitting by estimating the Vapnik-Chervonenkis dimension (VC dimension) for LAD models where hypothesis sets consist of DNFs with a small number of cubic monomials. We illustrate and confirm our observations empirically.

arxiv情報

著者 C. A. Jothishwaran,Biplav Srivastava,Jitin Singla,Sugata Gangopadhyay
発行日 2023-09-28 17:35:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク