Adversarial Attacks for Drift Detection

要約

概念ドリフトとは、時間の経過に伴うデータ分布の変化を指します。
ドリフトはモデルの学習に課題をもたらし、モデルの継続的な適応を必要としますが、誤動作、システム障害、予期せぬ動作を検出するためのシステム監視にも関係します。
後者の場合、ドリフトの堅牢かつ信頼性の高い検出が不可欠です。
この研究では、一般的に使用されているドリフト検出スキームの欠点を研究しています。
検出されずに漂流するデータ ストリームを構築する方法を示します。
これらをドリフト敵対者と呼びます。
特に、一般的な検出スキームに対して考えられるすべての敵対者を計算し、理論的発見を経験的評価で裏付けています。

要約(オリジナル)

Concept drift refers to the change of data distributions over time. While drift poses a challenge for learning models, requiring their continual adaption, it is also relevant in system monitoring to detect malfunctions, system failures, and unexpected behavior. In the latter case, the robust and reliable detection of drifts is imperative. This work studies the shortcomings of commonly used drift detection schemes. We show how to construct data streams that are drifting without being detected. We refer to those as drift adversarials. In particular, we compute all possible adversairals for common detection schemes and underpin our theoretical findings with empirical evaluations.

arxiv情報

著者 Fabian Hinder,Valerie Vaquet,Barbara Hammer
発行日 2024-11-25 17:25:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク