An Incremental MaxSAT-based Model to Learn Interpretable and Balanced Classification Rules

要約

機械学習の分野の進歩により、正確な予測によって広範囲の問題に効果的に対処する多数のアプリケーションが開発されました。
ただし、場合によっては、精度だけでは十分ではない場合があります。
現実世界の問題の多くは、予測の背後にある説明と解釈可能性も必要とします。
分類ルールである最も一般的な解釈可能なモデルの 1 つ。
この研究は、IMLIB と呼ばれる、MaxSAT に基づいて解釈可能でバランスの取れたルールを学習するための増分モデルを提案することを目的としています。
この新しいモデルは、他の 2 つのアプローチ、1 つは SAT に基づいており、もう 1 つは MaxSAT に基づいています。
SAT に基づくものでは、生成される各ルールのサイズが制限され、バランスがとれます。
このような一連のルールは、大小のルールが混在するものと比較して、より自然に理解できるように見えると考えられます。
IMLI と呼ばれる MaxSAT に基づくアプローチは、データセット内のモデルを段階的に適用することによって一連のルールを学習することを含むパフォーマンスを向上させる手法を提供します。
最後に、IMLIB と IMLI をさまざまなデータベースを使用して比較します。
IMLIB は、精度の点で IMLI に匹敵する結果を取得し、より小さいサイズでよりバランスの取れたルールを生成しました。

要約(オリジナル)

The increasing advancements in the field of machine learning have led to the development of numerous applications that effectively address a wide range of problems with accurate predictions. However, in certain cases, accuracy alone may not be sufficient. Many real-world problems also demand explanations and interpretability behind the predictions. One of the most popular interpretable models that are classification rules. This work aims to propose an incremental model for learning interpretable and balanced rules based on MaxSAT, called IMLIB. This new model was based on two other approaches, one based on SAT and the other on MaxSAT. The one based on SAT limits the size of each generated rule, making it possible to balance them. We suggest that such a set of rules seem more natural to be understood compared to a mixture of large and small rules. The approach based on MaxSAT, called IMLI, presents a technique to increase performance that involves learning a set of rules by incrementally applying the model in a dataset. Finally, IMLIB and IMLI are compared using diverse databases. IMLIB obtained results comparable to IMLI in terms of accuracy, generating more balanced rules with smaller sizes.

arxiv情報

著者 Antônio Carlos Souza Ferreira Júnior,Thiago Alves Rocha
発行日 2024-04-29 13:00:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.LO, I.2.4 パーマリンク