Evaluating Adversarial Robustness on Document Image Classification

要約

【タイトル】文書画像分類における敵対的頑健性の評価

【要約】
– 近年、敵対的攻撃と防御がコンピュータビジョンシステムに注目を集めていますが、ほとんどの研究は画像に限定されています。
– しかし、多くの人工知能モデルは、実際に文書のデータを扱っているため、現実世界の画像とは大きく異なります。
– そこで、本研究では、敵対的攻撃の哲学を文書データや自然データに適用し、モデルをそのような攻撃から保護することを試みます。
– 無標的の勾配ベース、転移学習ベース、スコアベースの攻撃に焦点を当て、ResNet50とEfficientNetB0モデルアーキテクチャの頑健性に敵対的トレーニング、JPEG入力圧縮、グレースケール入力変換の影響を評価しました。
– 文書画像分類タスクにおけるこれらの攻撃の影響を研究するために、コミュニティによるこのような研究は実施されていません。

要約(オリジナル)

Adversarial attacks and defenses have gained increasing interest on computer vision systems in recent years, but as of today, most investigations are limited to images. However, many artificial intelligence models actually handle documentary data, which is very different from real world images. Hence, in this work, we try to apply the adversarial attack philosophy on documentary and natural data and to protect models against such attacks. We focus our work on untargeted gradient-based, transfer-based and score-based attacks and evaluate the impact of adversarial training, JPEG input compression and grey-scale input transformation on the robustness of ResNet50 and EfficientNetB0 model architectures. To the best of our knowledge, no such work has been conducted by the community in order to study the impact of these attacks on the document image classification task.

arxiv情報

著者 Timothée Fronteau,Arnaud Paran,Aymen Shabou
発行日 2023-04-24 22:57:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク