SoK: Unintended Interactions among Machine Learning Defenses and Risks

要約

機械学習 (ML) モデルは、セキュリティ、プライバシー、公平性に対するリスクを無視できません。
このようなリスクを軽減するために、いくつかの防御策が提案されています。
あるリスクを軽減するのに防御が効果的である場合、それは他のリスクに対する感受性の増加または減少に対応する可能性があります。
既存の研究には、これらの意図しない相互作用を認識して説明するための効果的な枠組みがありません。
我々は、過剰適合と暗記が意図しない相互作用の根底にあるという推測に基づいて、そのようなフレームワークを提示します。
私たちは、意図しない相互作用に関する既存の文献を調査し、それらを私たちのフレームワーク内に収容します。
私たちはフレームワークを使用して、これまで調査されていなかった 2 つの相互作用を推測し、その推測を経験的に検証します。

要約(オリジナル)

Machine learning (ML) models cannot neglect risks to security, privacy, and fairness. Several defenses have been proposed to mitigate such risks. When a defense is effective in mitigating one risk, it may correspond to increased or decreased susceptibility to other risks. Existing research lacks an effective framework to recognize and explain these unintended interactions. We present such a framework, based on the conjecture that overfitting and memorization underlie unintended interactions. We survey existing literature on unintended interactions, accommodating them within our framework. We use our framework to conjecture on two previously unexplored interactions, and empirically validate our conjectures.

arxiv情報

著者 Vasisht Duddu,Sebastian Szyller,N. Asokan
発行日 2023-12-07 18:57:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク