要約
コンピュータと人間を区別するための完全に自動化された公開チューリング テスト (CAPTCHA の略) は、ボットによって実行される悪意のある攻撃から防御するための重要かつ比較的簡単な方法です。
セキュリティとユーザビリティのトレードオフにより、大規模な幾何学的変換の使用が制限され、深いモデルの認識が妨げられ、深いモデルは複雑な CAPTCHA で人間を上回るパフォーマンスを発揮することさえあります。
敵対的サンプルの発見は、敵対的サンプルと CAPTCHA を統合してディープ モデルを欺くことができる敵対的 CAPTCHA を生成することにより、セキュリティとユーザビリティのトレードオフに対する理想的なソリューションを提供します。
この論文では、敵対的 CAPTCHA の定義を拡張し、敵対的 CAPTCHA の分類方法を提案します。
次に、敵対的な例を生成するために一般的に使用されるいくつかの方法と、敵対的な CAPTCHA の生成に成功している方法を体系的にレビューします。
また、敵対的な CAPTCHA を防御するために使用できるいくつかの防御方法を分析し、敵対的な CAPTCHA に対する潜在的な脅威を示します。
最後に、このペーパーの最後では、敵対的 CAPTCHA に関する将来の研究の方向性について説明します。
要約(オリジナル)
Completely Automated Public Turing test to tell Computers and Humans Apart, short for CAPTCHA, is an essential and relatively easy way to defend against malicious attacks implemented by bots. The security and usability trade-off limits the use of massive geometric transformations to interfere deep model recognition and deep models even outperformed humans in complex CAPTCHAs. The discovery of adversarial examples provides an ideal solution to the security and usability trade-off by integrating adversarial examples and CAPTCHAs to generate adversarial CAPTCHAs that can fool the deep models. In this paper, we extend the definition of adversarial CAPTCHAs and propose a classification method for adversarial CAPTCHAs. Then we systematically review some commonly used methods to generate adversarial examples and methods that are successfully used to generate adversarial CAPTCHAs. Also, we analyze some defense methods that can be used to defend adversarial CAPTCHAs, indicating potential threats to adversarial CAPTCHAs. Finally, we discuss some possible future research directions for adversarial CAPTCHAs at the end of this paper.
arxiv情報
著者 | Zisheng Xu,Qiao Yan,F. Richard Yu,Victor C. M. Leung |
発行日 | 2023-11-22 08:44:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google