SoK: Unintended Interactions among Machine Learning Defenses and Risks

要約

機械学習(ML)モデルは、セキュリティ、プライバシー、公平性に対するリスクを無視することはできない。このようなリスクを軽減するために、いくつかの防御策が提案されている。ある防御が1つのリスクを軽減するのに有効である場合、それは他のリスクに対する感受性の増減に対応する可能性がある。既存の研究には、このような意図しない相互作用を認識し説明するための効果的なフレームワークが欠けている。我々は、意図せざる相互作用の根底には過剰適合と記憶化があるという推測に基づき、そのような枠組みを提示する。我々は、意図しない相互作用に関する既存の文献を調査し、それらを我々のフレームワークの中に収容する。我々の枠組みを用いて、これまで未解明であった2つの相互作用を推測し、我々の推測を実証的に検証する。

要約(オリジナル)

Machine learning (ML) models cannot neglect risks to security, privacy, and fairness. Several defenses have been proposed to mitigate such risks. When a defense is effective in mitigating one risk, it may correspond to increased or decreased susceptibility to other risks. Existing research lacks an effective framework to recognize and explain these unintended interactions. We present such a framework, based on the conjecture that overfitting and memorization underlie unintended interactions. We survey existing literature on unintended interactions, accommodating them within our framework. We use our framework to conjecture on two previously unexplored interactions, and empirically validate our conjectures.

arxiv情報

著者 Vasisht Duddu,Sebastian Szyller,N. Asokan
発行日 2024-04-04 16:43:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.LG パーマリンク