ModSec-AdvLearn: Countering Adversarial SQL Injections with Robust Machine Learning

要約

多くの Web アプリケーション ファイアウォール (WAF) は、OWASP コア ルール セット (CRS) を利用して、受信する悪意のあるリクエストをブロックします。
CRS は、既知の Web 攻撃パターンを検出するためにドメインの専門家によって設計されたさまざまなルールのセットで構成されています。
使用されるルールのセットとそれらを結合するために使用される重みは両方とも手動で定義され、CRS の 4 つの異なるデフォルト設定が生成されます。
この研究では、SQL インジェクション (SQLi) 攻撃の検出に焦点を当て、CRS の手動構成では通常、検出と誤報率の間のトレードオフが最適ではないことを示します。
さらに、これらの構成は、敵対的な SQLi 攻撃、つまり、ターゲット WAF にクエリを実行して検出をバイパスすることで悪意のある SQLi ペイロードを繰り返し改良する、慎重に作成された攻撃に対して堅牢ではないことを示します。
これらの制限を克服するために、我々は、(i) 機械学習を使用して、それらの重みとともに組み合わせるルールのセットの選択を自動化する、つまり、監視対象の Web サービスに基づいて CRS 構成をカスタマイズすることを提案します。
(ii) 敵対的トレーニングを活用して、敵対的 SQLi 操作に対する堅牢性を大幅に向上させます。
CRS ルールを備えたよく知られたオープンソースの ModSecurity WAF を使用して実施された私たちの実験は、ModSec-AdvLearn と名付けられた私たちのアプローチが、(i) 無視できる誤報率を維持しながら、検出率を最大 30% 向上させることができることを示しています。
CRS ルールの最大 50% を破棄します。
(ii) 敵対的な SQLi 攻撃に対する堅牢性が最大 85% 向上し、より効果的で堅牢な WAF の設計に向けて大きな進歩を遂げています。
オープンソース コードを https://github.com/pralab/modsec-advlearn でリリースします。

要約(オリジナル)

Many Web Application Firewalls (WAFs) leverage the OWASP Core Rule Set (CRS) to block incoming malicious requests. The CRS consists of different sets of rules designed by domain experts to detect well-known web attack patterns. Both the set of rules to be used and the weights used to combine them are manually defined, yielding four different default configurations of the CRS. In this work, we focus on the detection of SQL injection (SQLi) attacks, and show that the manual configurations of the CRS typically yield a suboptimal trade-off between detection and false alarm rates. Furthermore, we show that these configurations are not robust to adversarial SQLi attacks, i.e., carefully-crafted attacks that iteratively refine the malicious SQLi payload by querying the target WAF to bypass detection. To overcome these limitations, we propose (i) using machine learning to automate the selection of the set of rules to be combined along with their weights, i.e., customizing the CRS configuration based on the monitored web services; and (ii) leveraging adversarial training to significantly improve its robustness to adversarial SQLi manipulations. Our experiments, conducted using the well-known open-source ModSecurity WAF equipped with the CRS rules, show that our approach, named ModSec-AdvLearn, can (i) increase the detection rate up to 30%, while retaining negligible false alarm rates and discarding up to 50% of the CRS rules; and (ii) improve robustness against adversarial SQLi attacks up to 85%, marking a significant stride toward designing more effective and robust WAFs. We release our open-source code at https://github.com/pralab/modsec-advlearn.

arxiv情報

著者 Biagio Montaruli,Giuseppe Floris,Christian Scano,Luca Demetrio,Andrea Valenza,Luca Compagna,Davide Ariu,Luca Piras,Davide Balzarotti,Battista Biggio
発行日 2024-11-29 16:33:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク