要約
深層強化学習は大きく進歩し、多くの分野に応用されています。
この論文では、エージェントを攻撃するための効果的な敵対例を作成するための新しい生成モデルを提案することにより、深層強化学習の脆弱性を調査します。
私たちが提案するモデルは、標的型攻撃と非標的型攻撃の両方を実現できます。
深層強化学習の特異性を考慮して、ステルス性の尺度としての行動一貫性率、および有効性とステルス性の新しい測定指標を提案します。
実験結果は、私たちの方法が他のアルゴリズムと比較して攻撃の有効性とステルス性を保証できることを示しています。
さらに、私たちの方法はかなり高速であるため、深層強化学習の脆弱性を迅速かつ効率的に検証できます。
要約(オリジナル)
Deep reinforcement learning has advanced greatly and applied in many areas. In this paper, we explore the vulnerability of deep reinforcement learning by proposing a novel generative model for creating effective adversarial examples to attack the agent. Our proposed model can achieve both targeted attacks and untargeted attacks. Considering the specificity of deep reinforcement learning, we propose the action consistency ratio as a measure of stealthiness, and a new measurement index of effectiveness and stealthiness. Experiment results show that our method can ensure the effectiveness and stealthiness of attack compared with other algorithms. Moreover, our methods are considerably faster and thus can achieve rapid and efficient verification of the vulnerability of deep reinforcement learning.
arxiv情報
著者 | Xiangjuan Li,Feifan Li,Yang Li,Quan Pan |
発行日 | 2023-12-20 10:40:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google