要約
最新の機械学習 (ML) モデルの堅牢性について、コミュニティ内での懸念が高まっています。
入力に対する一見取るに足らない変更を使用して、モデルを破壊して誤った予測を行う能力は驚くべきものですが、この懸念に対して堅牢なモデルを構築することに私たちが成功していないことも同様です。
既存の研究では進歩が示されていますが、現在の緩和策には高いコストがかかり、同時にモデルの精度も低下します。
ただし、他の設計を選択することでリスクを回避できる場合には、そのようなトレードオフは必要ない場合があります。
この調査では、平均的なエンティティに対する敵対的機械学習 (AML) の現実世界のリスクを批判的に評価するために、攻撃とその現実世界での発生、またはその限られた証拠に関する現在の文献をレビューします。
これは、実際にこれらの攻撃をどのように軽減するか、運用環境の展開のリスク、およびそれらのリスクをどのように管理できるかを考慮して行われます。
そうすることで、多くの AML 脅威は、攻撃の可能性が低いこと、または優れた非 ML 緩和策が利用可能であることにより、コストや堅牢性のトレードオフを保証できないことを明らかにしました。
私たちの分析では、完全な展開には堅牢な ML モデルが必要な程度に攻撃者が AML を懸念する必要があるケースも推奨しています。
要約(オリジナル)
The robustness of modern machine learning (ML) models has become an increasing concern within the community. The ability to subvert a model into making errant predictions using seemingly inconsequential changes to input is startling, as is our lack of success in building models robust to this concern. Existing research shows progress, but current mitigations come with a high cost and simultaneously reduce the model’s accuracy. However, such trade-offs may not be necessary when other design choices could subvert the risk. In this survey we review the current literature on attacks and their real-world occurrences, or limited evidence thereof, to critically evaluate the real-world risks of adversarial machine learning (AML) for the average entity. This is done with an eye toward how one would then mitigate these attacks in practice, the risks for production deployment, and how those risks could be managed. In doing so we elucidate that many AML threats do not warrant the cost and trade-offs of robustness due to a low likelihood of attack or availability of superior non-ML mitigations. Our analysis also recommends cases where an actor should be concerned about AML to the degree where robust ML models are necessary for a complete deployment.
arxiv情報
著者 | Edward Raff,Michel Benaroch,Andrew L. Farris |
発行日 | 2023-06-16 16:32:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google