Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification

要約

コンフォーマル予測により、信頼性が高く堅牢な学習アルゴリズムを定義できます。
しかし、それらは本質的に、アルゴリズムが実際に使用するのに十分かどうかを評価するための方法です。
分類のための信頼できる学習フレームワークを設計の最初から定義するために、スケーラブルな分類器の概念が導入され、統計的順序理論と確率的学習理論に関連付けることによって古典的な分類器の概念が一般化されました。
この論文では、スコア関数の新しい定義を導入し、エラー カバレッジを満たす入力空間内のパターンを識別できる入力変数の特別なセットである等角安全セットを定義することにより、スケーラブルな分類器と等角予測の間の類似性を分析します。
つまり、このセットに属する点の間違った (おそらく安全でない) ラベルが観察される確率は、事前に定義された $\varepsilon$ エラー レベルによって制限されます。
DNS トンネリング攻撃を識別するためのサイバーセキュリティへのアプリケーションを通じて、このフレームワークの実際的な意味を示します。
私たちの研究は、確率的に堅牢で信頼性の高い機械学習モデルの開発に貢献しています。

要約(オリジナル)

Conformal predictions make it possible to define reliable and robust learning algorithms. But they are essentially a method for evaluating whether an algorithm is good enough to be used in practice. To define a reliable learning framework for classification from the very beginning of its design, the concept of scalable classifier was introduced to generalize the concept of classical classifier by linking it to statistical order theory and probabilistic learning theory. In this paper, we analyze the similarities between scalable classifiers and conformal predictions by introducing a new definition of a score function and defining a special set of input variables, the conformal safety set, which can identify patterns in the input space that satisfy the error coverage guarantee, i.e., that the probability of observing the wrong (possibly unsafe) label for points belonging to this set is bounded by a predefined $\varepsilon$ error level. We demonstrate the practical implications of this framework through an application in cybersecurity for identifying DNS tunneling attacks. Our work contributes to the development of probabilistically robust and reliable machine learning models.

arxiv情報

著者 Alberto Carlevaro,Teodoro Alamo Cantarero,Fabrizio Dabbene,Maurizio Mongelli
発行日 2024-03-15 14:59:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T37, cs.CR, cs.LG, I.5.3, stat.ML パーマリンク