要約
ニューラル ネットワークの敵対的堅牢性は、コンピューター ビジョン モデル、大規模言語モデル (LLM) などの研究を組み合わせた研究分野としてますます重要になっています。
エンドツーエンドのニューラル画像圧縮 (NIC) 方式の最初の標準である JPEG AI のリリースにより、その堅牢性の問題が非常に重要になりました。
JPEG AI は、ニューラル ネットワーク ベースのモデルを民生用デバイスに組み込んだ最初の国際的な現実世界アプリケーションの 1 つです。
ただし、NIC の堅牢性に関する研究は、オープンソース コーデックと狭い範囲の攻撃に限定されています。
この文書では、敵対的な攻撃に対する NIC の堅牢性を測定するための新しい方法論を提案します。
他の NIC モデルと比較して、JPEG AI の堅牢性を初めて大規模に評価しました。
私たちの評価結果とコードはオンラインで公開されています (ブラインドレビューのためリンクは非表示になっています)。
要約(オリジナル)
Adversarial robustness of neural networks is an increasingly important area of research, combining studies on computer vision models, large language models (LLMs), and others. With the release of JPEG AI – the first standard for end-to-end neural image compression (NIC) methods – the question of its robustness has become critically significant. JPEG AI is among the first international, real-world applications of neural-network-based models to be embedded in consumer devices. However, research on NIC robustness has been limited to open-source codecs and a narrow range of attacks. This paper proposes a new methodology for measuring NIC robustness to adversarial attacks. We present the first large-scale evaluation of JPEG AI’s robustness, comparing it with other NIC models. Our evaluation results and code are publicly available online (link is hidden for a blind review).
arxiv情報
著者 | Egor Kovalev,Georgii Bychkov,Khaled Abud,Aleksandr Gushchin,Anna Chistyakova,Sergey Lavrushkin,Dmitriy Vatolin,Anastasia Antsiferova |
発行日 | 2024-11-18 18:08:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google