要約
タイトル:タスク指向の多目的最適化による敵対的な例の生成
要旨:
– 深層学習モデルは、その状態が最先端であっても、敵対的な例に高い脆弱性を持つ。
– 敵対的な学習は、モデルの頑健性を向上させるための最も効率的な方法の1つである。
– 敵対的な学習の成功の鍵は、いくつかの目的や目標を満たす質の高く異なる敵対的な例を生成することができる能力である(例えば、複数のモデルを同時に攻撃するためのモデルの損失を最大化する敵対的な例を見つける)。
– そのため、多目的最適化(MOO)は、複数の目的や目標を同時に達成するための敵対的な例生成の自然なツールである。
– しかし、MOOの単純な適用は、目標が既に達成されているかどうかを気にせず、すべての目的や目標を等しく最大化する傾向がある。これにより、目標が達成されたタスクをさらに改善するための無駄な努力が生じ、目標未達成のタスクに重点を置かなくなる。
– 本論文では、タスクの達成状況を明示的に定義できる文脈でこの問題に対処するために、「タスク指向のMOO」を提案する。私たちの原則は、目標が達成されたタスクのみを維持し、最適化器に目標未達成のタスクを改善するためにより多くの努力を費やさせることである。
– 私たちは、私たちのタスク指向MOOを様々な敵対的な例生成スキームで包括的な実験を行い、提案手法の優位性を確かに示した。
– 私たちのコードは \url{https://github.com/tuananhbui89/TAMOO} で利用可能である。
要約(オリジナル)
Deep learning models, even the-state-of-the-art ones, are highly vulnerable to adversarial examples. Adversarial training is one of the most efficient methods to improve the model’s robustness. The key factor for the success of adversarial training is the capability to generate qualified and divergent adversarial examples which satisfy some objectives/goals (e.g., finding adversarial examples that maximize the model losses for simultaneously attacking multiple models). Therefore, multi-objective optimization (MOO) is a natural tool for adversarial example generation to achieve multiple objectives/goals simultaneously. However, we observe that a naive application of MOO tends to maximize all objectives/goals equally, without caring if an objective/goal has been achieved yet. This leads to useless effort to further improve the goal-achieved tasks, while putting less focus on the goal-unachieved tasks. In this paper, we propose \emph{Task Oriented MOO} to address this issue, in the context where we can explicitly define the goal achievement for a task. Our principle is to only maintain the goal-achieved tasks, while letting the optimizer spend more effort on improving the goal-unachieved tasks. We conduct comprehensive experiments for our Task Oriented MOO on various adversarial example generation schemes. The experimental results firmly demonstrate the merit of our proposed approach. Our code is available at \url{https://github.com/tuananhbui89/TAMOO}.
arxiv情報
著者 | Anh Bui,Trung Le,He Zhao,Quan Tran,Paul Montague,Dinh Phung |
発行日 | 2023-04-26 01:30:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI