要約
人工知能 (AI) は幅広い用途に使用されていますが、展開中の意図的でない、または悪意のある改ざんによるリスクももたらします。
したがって、そのようなリスクを検出して防止するには、定期的なチェックが必要です。
脆弱な透かしは、AI モデルの改ざんを識別するために使用される技術です。
しかし、これまでの方法では、漏れのリスク、追加情報の送信、改ざんを正確に特定できないなどの課題に直面していました。
この論文では、改ざんされたパラメータとビットを検出する方法を提案します。この方法は、改ざんされたパラメータを検出、特定、復元するために使用できます。
また、モデルの精度を維持しながら情報容量を最大化する適応型埋め込み手法も提案します。
私たちのアプローチは、重みパラメーターを変更する攻撃を受けた複数のニューラル ネットワーク上でテストされました。その結果、変更率が 20% 未満の場合に、私たちの方法が優れた回復パフォーマンスを達成したことが実証されました。
さらに、透かしが精度に大きく影響したモデルについては、適応ビット技術を利用して、モデルの精度損失の 15% 以上を回復しました。
要約(オリジナル)
Artificial Intelligence (AI) has found wide application, but also poses risks due to unintentional or malicious tampering during deployment. Regular checks are therefore necessary to detect and prevent such risks. Fragile watermarking is a technique used to identify tampering in AI models. However, previous methods have faced challenges including risks of omission, additional information transmission, and inability to locate tampering precisely. In this paper, we propose a method for detecting tampered parameters and bits, which can be used to detect, locate, and restore parameters that have been tampered with. We also propose an adaptive embedding method that maximizes information capacity while maintaining model accuracy. Our approach was tested on multiple neural networks subjected to attacks that modified weight parameters, and our results demonstrate that our method achieved great recovery performance when the modification rate was below 20%. Furthermore, for models where watermarking significantly affected accuracy, we utilized an adaptive bit technique to recover more than 15% of the accuracy loss of the model.
arxiv情報
著者 | Zhenzhe Gao,Zhaoxia Yin,Hongjian Zhan,Heng Yin,Yue Lu |
発行日 | 2023-08-22 07:21:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google