Federated Adversarial Training with Transformers

要約

連合学習(FL)は、分散クライアントのデータのプライバシーを保護しながら、グローバルモデルトレーニングを可能にするために登場しました。
ただし、グローバルにトレーニングされたモデルは、回避攻撃、特に敵対的な例(AE)に対して脆弱であり、サンプルを慎重に作成して誤った分類を生成します。
敵対的訓練(AT)は、回避攻撃に対する最も有望なアプローチであることがわかっており、畳み込みニューラルネットワーク(CNN)について広く研究されています。
最近、ビジョントランスフォーマーは多くのコンピュータービジョンタスクで効果的であることがわかっています。
著者の知る限り、ビジョントランスのFLプロセスにおけるATの実現可能性を研究した研究はありません。
このホワイトペーパーでは、さまざまなフェデレーションモデルの集約方法と、さまざまなトークン化および分類ヘッド手法を使用したさまざまなビジョントランスフォーマーモデルを使用して、このような実現可能性を調査します。
独立していない同一分布(非IID)のモデルのロバスト精度を向上させるために、FedWAvgと呼ばれるFedAvg集計方法の拡張を提案します。
FedWAvgは、グローバルモデルの最後のレイヤーとクライアントの更新の最後のレイヤーの間の類似性を測定することにより、ローカルモデルの更新を集約するための重みを計算します。
実験は、FedWAvgが他の最先端の集計方法と比較した場合にロバストな精度を向上させることを示しています。

要約(オリジナル)

Federated learning (FL) has emerged to enable global model training over distributed clients’ data while preserving its privacy. However, the global trained model is vulnerable to the evasion attacks especially, the adversarial examples (AEs), carefully crafted samples to yield false classification. Adversarial training (AT) is found to be the most promising approach against evasion attacks and it is widely studied for convolutional neural network (CNN). Recently, vision transformers have been found to be effective in many computer vision tasks. To the best of the authors’ knowledge, there is no work that studied the feasibility of AT in a FL process for vision transformers. This paper investigates such feasibility with different federated model aggregation methods and different vision transformer models with different tokenization and classification head techniques. In order to improve the robust accuracy of the models with the not independent and identically distributed (Non-IID), we propose an extension to FedAvg aggregation method, called FedWAvg. By measuring the similarities between the last layer of the global model and the last layer of the client updates, FedWAvg calculates the weights to aggregate the local models updates. The experiments show that FedWAvg improves the robust accuracy when compared with other state-of-the-art aggregation methods.

arxiv情報

著者 Ahmed Aldahdooh,Wassim Hamidouche,Olivier Déforges
発行日 2022-06-05 09:07:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク