要約
敵対的摂動に対するロバスト性は、コンピューター ビジョンの多くの分野で調査されています。
このロバスト性は、ビジョンベースの強化学習に特に関連しています。自律エージェントのアクションは、現実の世界で安全性に批判的または影響を与える可能性があるためです。
視覚ベースの強化学習エージェントの勾配ベースの敵対的攻撃に対する感受性を調査し、潜在的な防御を評価します。
CNN アーキテクチャに含まれるボトルネック アテンション モジュール (BAM) は、敵対的攻撃に対する堅牢性を高めるための潜在的なツールとして機能することがわかります。
学習したアテンション マップを使用して、空間活性化を顕著な領域に制限することにより、畳み込み層の活性化を回復する方法を示します。
多くの RL 環境で、BAM 拡張アーキテクチャは推論中の堅牢性の向上を示しています。
最後に、潜在的な将来の研究の方向性について説明します。
要約(オリジナル)
Robustness to adversarial perturbations has been explored in many areas of computer vision. This robustness is particularly relevant in vision-based reinforcement learning, as the actions of autonomous agents might be safety-critic or impactful in the real world. We investigate the susceptibility of vision-based reinforcement learning agents to gradient-based adversarial attacks and evaluate a potential defense. We observe that Bottleneck Attention Modules (BAM) included in CNN architectures can act as potential tools to increase robustness against adversarial attacks. We show how learned attention maps can be used to recover activations of a convolutional layer by restricting the spatial activations to salient regions. Across a number of RL environments, BAM-enhanced architectures show increased robustness during inference. Finally, we discuss potential future research directions.
arxiv情報
著者 | Eugene Bykovets,Yannick Metz,Mennatallah El-Assady,Daniel A. Keim,Joachim M. Buhmann |
発行日 | 2022-08-22 17:54:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google