Adversarial Robustness in Parameter-Space Classifiers

要約

暗黙の神経表現(INR)は最近、主にコンパクトで継続的な方法で大規模で複雑なデータを表現する能力のために、さまざまな研究分野への関心の高まりを獲得しています。
過去の作業はさらに、多数の一般的な下流タスクをINRパラメータースペースで直接実行できることを示しました。
そうすることで、ネイティブドメインで表現されたデータを処理するために必要な計算リソースを大幅に削減できます。
現代の機械学習アプローチを使用することの主な困難は、敵対的な攻撃に対する感受性が高いことです。これは、幅広い設定でのそのような方法の信頼性と適用性を大幅に制限することが示されています。
この作業では、分類のためにトレーニングされたパラメーター空間モデルは、堅牢なトレーニングを必要とせずに、本質的に敵対的な攻撃に対して堅牢であることを示します。
私たちの主張をサポートするために、パラメーター空間分類子をターゲットとする一連の敵対的な攻撃を開発し、さらに攻撃パラメーター空間分類子の実用的な考慮事項を分析します。
すべての実験を再現するためのコードと提案されたすべての方法の実装は、公開時にリリースされます。

要約(オリジナル)

Implicit Neural Representations (INRs) have been recently garnering increasing interest in various research fields, mainly due to their ability to represent large, complex data in a compact and continuous manner. Past work further showed that numerous popular downstream tasks can be performed directly in the INR parameter-space. Doing so can substantially reduce the computational resources required to process the represented data in their native domain. A major difficulty in using modern machine-learning approaches, is their high susceptibility to adversarial attacks, which have been shown to greatly limit the reliability and applicability of such methods in a wide range of settings. In this work, we show that parameter-space models trained for classification are inherently robust to adversarial attacks — without the need of any robust training. To support our claims, we develop a novel suite of adversarial attacks targeting parameter-space classifiers, and furthermore analyze practical considerations of attacking parameter-space classifiers. Code for reproducing all experiments and implementation of all proposed methods will be released upon publication.

arxiv情報

著者 Tamir Shor,Ethan Fetaya,Chaim Baskin,Alex Bronstein
発行日 2025-02-27 17:41:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク