要約
目に見えないドメイン/攻撃に対する一般化の欠如は、ほとんどの顔提示攻撃検出 (FacePAD) アルゴリズムのアキレス腱です。
FacePAD ソリューションの汎用性を強化する既存の試みは、複数のソース ドメインからのデータが単一のエンティティで利用可能であり、集中トレーニングを可能にすることを前提としています。
実際には、さまざまなソース ドメインからのデータがさまざまな主体によって収集される可能性がありますが、多くの場合、法律やプライバシーの制約によりデータを共有できません。
フェデレーテッド ラーニング (FL) などの協調学習パラダイムはこの問題を克服できますが、標準の FL 手法は、トレーニング中の非 IID クライアント データ分散の処理と、トレーニング中の目に見えないドメインへの一般化という 2 つの課題を克服するのに苦労するため、ドメインの一般化には不向きです。
推論。
この研究では、プライバシー保護領域の一般化のために、FedSIS (FedSIS) と呼ばれる新しいフレームワークが導入されています。
FedSIS では、ハイブリッド ビジョン トランスフォーマー (ViT) アーキテクチャが FL と分割学習の組み合わせを使用して学習され、生データを共有することなく (これによりプライバシーが保護されます) クライアント データ分布の統計的不均一性に対する堅牢性を実現します。
目に見えない領域への汎化をさらに改善するために、中間表現サンプリングと呼ばれる新しい特徴拡張戦略が採用され、共有アダプター ネットワークを使用して ViT の中間ブロックからの識別情報が抽出されます。
FedSIS アプローチは、クロスドメイン FacePAD の 2 つのよく知られたベンチマークで評価され、データ共有なしで最先端の汎化パフォーマンスを達成できることが実証されています。
コード: https://github.com/Naiftt/FedSIS
要約(オリジナル)
Lack of generalization to unseen domains/attacks is the Achilles heel of most face presentation attack detection (FacePAD) algorithms. Existing attempts to enhance the generalizability of FacePAD solutions assume that data from multiple source domains are available with a single entity to enable centralized training. In practice, data from different source domains may be collected by diverse entities, who are often unable to share their data due to legal and privacy constraints. While collaborative learning paradigms such as federated learning (FL) can overcome this problem, standard FL methods are ill-suited for domain generalization because they struggle to surmount the twin challenges of handling non-iid client data distributions during training and generalizing to unseen domains during inference. In this work, a novel framework called Federated Split learning with Intermediate representation Sampling (FedSIS) is introduced for privacy-preserving domain generalization. In FedSIS, a hybrid Vision Transformer (ViT) architecture is learned using a combination of FL and split learning to achieve robustness against statistical heterogeneity in the client data distributions without any sharing of raw data (thereby preserving privacy). To further improve generalization to unseen domains, a novel feature augmentation strategy called intermediate representation sampling is employed, and discriminative information from intermediate blocks of a ViT is distilled using a shared adapter network. The FedSIS approach has been evaluated on two well-known benchmarks for cross-domain FacePAD to demonstrate that it is possible to achieve state-of-the-art generalization performance without data sharing. Code: https://github.com/Naiftt/FedSIS
arxiv情報
著者 | Naif Alkhunaizi,Koushik Srivatsan,Faris Almalik,Ibrahim Almakky,Karthik Nandakumar |
発行日 | 2023-08-22 16:09:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google