要約
従来の集中型ディープ ラーニング パラダイムは、データのプライバシーや送信制限のために異なるソースからのデータを共有できない場合には実現できません。
この問題を解決するために、連合学習が導入され、グローバルに一般化された中央モデル (サーバー) を最適化しながら、共有されていないデータを使用して複数のソース (クライアント) 間で知識を転送します。
既存のフェデレーテッド ラーニング パラダイムは、対象となる特定のオブジェクトと密接に関連しているため、逆攻撃を受ける可能性があるモデル間で全体的な高レベルの知識 (クラスなど) を転送することに主に焦点を当てています。
対照的に、この作業では、関心のある特定のオブジェクトに敏感ではないため、よりプライバシーを保護し、スケーラブルな中間レベルのセマンティック知識 (属性など) を転送することを検討します。
この目的のために、共有されていないローカルデータを使用して複数のローカルクライアントで中間レベルのセマンティック知識を学習し、展開のためにグローバルに一般化された中央モデルを累積的に集約するための新しい Federated Zero-Shot Learning (FZSL) パラダイムを策定します。
モデルの識別能力を向上させるために、FZSL の中間レベルの意味空間を強化するために、外部知識からの意味知識の拡張を検討することを提案します。
5 つのゼロショット学習ベンチマーク データセットに関する広範な実験により、中間レベルのセマンティック知識伝達を備えた一般化可能な連合学習モデルを最適化するためのアプローチの有効性が検証されます。
要約(オリジナル)
Conventional centralised deep learning paradigms are not feasible when data from different sources cannot be shared due to data privacy or transmission limitation. To resolve this problem, federated learning has been introduced to transfer knowledge across multiple sources (clients) with non-shared data while optimising a globally generalised central model (server). Existing federated learning paradigms mostly focus on transferring holistic high-level knowledge (such as class) across models, which are closely related to specific objects of interest so may suffer from inverse attack. In contrast, in this work, we consider transferring mid-level semantic knowledge (such as attribute) which is not sensitive to specific objects of interest and therefore is more privacy-preserving and scalable. To this end, we formulate a new Federated Zero-Shot Learning (FZSL) paradigm to learn mid-level semantic knowledge at multiple local clients with non-shared local data and cumulatively aggregate a globally generalised central model for deployment. To improve model discriminative ability, we propose to explore semantic knowledge augmentation from external knowledge for enriching the mid-level semantic space in FZSL. Extensive experiments on five zeroshot learning benchmark datasets validate the effectiveness of our approach for optimising a generalisable federated learning model with mid-level semantic knowledge transfer.
arxiv情報
著者 | Shitong Sun,Chenyang Si,Shaogang Gong,Guile Wu |
発行日 | 2022-08-29 10:05:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google