Adversarial Attacks on Machine Learning-Aided Visualizations

要約

ML4VIS の研究では、機械学習 (ML) 技術を使用して視覚化を生成する方法が研究されており、この分野は社会的影響力が高く急速に成長しています。
ただし、ML プロセスを使用する他の計算パイプラインと同様に、ML4VIS アプローチは、ML 固有のさまざまな敵対的攻撃の影響を受けやすくなります。
これらの攻撃は視覚化の世代を操作する可能性があり、アナリストが騙されて判断力が損なわれる可能性があります。
視覚化と ML の両方の観点からの統合が不足しているため、このセキュリティの側面は現在の ML4VIS 文献ではほとんど見落とされています。
このギャップを埋めるために、可視化と ML の両方の観点から総合的なレンズを使用して、敵対的攻撃による ML 支援可視化の潜在的な脆弱性を調査します。
まず、ML を利用した視覚化に特有の攻撃対象領域 (つまり、攻撃のエントリ ポイント) を特定します。
次に、5 つの異なる敵対的攻撃を例に挙げます。
これらの例は、攻撃対象領域と複数の異なる敵対者の能力を考慮した場合に考えられる攻撃の範囲を強調しています。
私たちの結果は、攻撃者が ML 推論に影響を与える入力属性を体系的に識別することで、恣意的で欺瞞的な視覚化を作成するなど、さまざまな攻撃を誘発できることを示しています。
攻撃対象領域の特性と攻撃例の観察に基づいて、ML4VIS コミュニティに対する緊急の呼びかけとして、セキュリティ問題と防御メカニズムの包括的な研究の重要性を強調します。

要約(オリジナル)

Research in ML4VIS investigates how to use machine learning (ML) techniques to generate visualizations, and the field is rapidly growing with high societal impact. However, as with any computational pipeline that employs ML processes, ML4VIS approaches are susceptible to a range of ML-specific adversarial attacks. These attacks can manipulate visualization generations, causing analysts to be tricked and their judgments to be impaired. Due to a lack of synthesis from both visualization and ML perspectives, this security aspect is largely overlooked by the current ML4VIS literature. To bridge this gap, we investigate the potential vulnerabilities of ML-aided visualizations from adversarial attacks using a holistic lens of both visualization and ML perspectives. We first identify the attack surface (i.e., attack entry points) that is unique in ML-aided visualizations. We then exemplify five different adversarial attacks. These examples highlight the range of possible attacks when considering the attack surface and multiple different adversary capabilities. Our results show that adversaries can induce various attacks, such as creating arbitrary and deceptive visualizations, by systematically identifying input attributes that are influential in ML inferences. Based on our observations of the attack surface characteristics and the attack examples, we underline the importance of comprehensive studies of security issues and defense mechanisms as a call of urgency for the ML4VIS community.

arxiv情報

著者 Takanori Fujiwara,Kostiantyn Kucher,Junpeng Wang,Rafael M. Martins,Andreas Kerren,Anders Ynnerman
発行日 2024-09-24 13:58:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.HC, cs.LG, stat.ML パーマリンク