要約
ディープ ニューラル ネットワーク (DNN) は、さまざまな分野で大きな期待を集めています。
こうした発展に加えて、バックドア攻撃など、DNN トレーニングに関連する脆弱性も重大な懸念事項となっています。
これらの攻撃には、モデルのトレーニング中にトリガーが微妙に挿入され、予測の操作が可能になります。
最近では、トランスフォーマー モデルの台頭により、表形式データ用の DNN がますます注目を集めています。
私たちの調査では、特にトランスベースのネットワークに焦点を当て、DNN を使用した表形式データに対するバックドア攻撃の包括的な分析を示しています。
表形式データの本質的な複雑さを考慮して、バックドアを埋め込む際の課題を検討します。
ベンチマーク データセットにわたる体系的な実験を通じて、表形式データ用のトランスフォーマー ベースの DNN は、特徴量の変更が最小限であっても、バックドア攻撃の影響を非常に受けやすいことが判明しました。
私たちの結果は、表形式のデータに新しいバックドア攻撃戦略を導入することにより、ほぼ完璧な攻撃成功率 (約 100%) を示しています。
さらに、これらの攻撃に対するいくつかの防御策を評価し、最も効果的なものとしてスペクトル シグネチャを特定します。
私たちの調査結果は、このような脆弱性に対処する緊急性を強調し、表形式データのバックドアから DNN モデルを保護するための潜在的な対策についての洞察を提供します。
要約(オリジナル)
Deep neural networks (DNNs) have shown great promise in various domains. Alongside these developments, vulnerabilities associated with DNN training, such as backdoor attacks, are a significant concern. These attacks involve the subtle insertion of triggers during model training, allowing for manipulated predictions. More recently, DNNs for tabular data have gained increasing attention due to the rise of transformer models. Our research presents a comprehensive analysis of backdoor attacks on tabular data using DNNs, particularly focusing on transformer-based networks. Given the inherent complexities of tabular data, we explore the challenges of embedding backdoors. Through systematic experimentation across benchmark datasets, we uncover that transformer-based DNNs for tabular data are highly susceptible to backdoor attacks, even with minimal feature value alterations. Our results indicate nearly perfect attack success rates (approx100%) by introducing novel backdoor attack strategies to tabular data. Furthermore, we evaluate several defenses against these attacks, identifying Spectral Signatures as the most effective one. Our findings highlight the urgency to address such vulnerabilities and provide insights into potential countermeasures for securing DNN models against backdoors on tabular data.
arxiv情報
著者 | Bart Pleiter,Behrad Tajalli,Stefanos Koffas,Gorka Abad,Jing Xu,Martha Larson,Stjepan Picek |
発行日 | 2023-11-13 18:39:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google