Federated Generalized Category Discovery

要約

一般化カテゴリ検出 (GCD) は、既知のクラスのラベル付きデータを考慮して、既知および未知のクラスからラベルのないサンプルをグループ化することを目的としています。
コミュニティにおける最近の分散化傾向に対応するために、トレーニング データがローカル クライアントに分散的に保存され、クライアント間で共有できない、Federated GCD (Fed-GCD) という実用的だが困難なタスクを導入します。
Fed-GCD の目標は、プライバシーが保護された制約の下で、クライアントのコラボレーションによって汎用 GCD モデルをトレーニングすることです。
Fed-GCD は 2 つの課題を引き起こします。1) 集中型 GCD 学習よりも少ないデータで各クライアント モデルをトレーニングすることによって引き起こされる表現の劣化、2) 異なるクライアント間で非常に異質なラベル空間。
この目的を達成するために、我々は、クライアント セマンティクス アソシエーション (CSA) とグローバル ローカル GMM 対比学習 (GCL) で構成される、学習可能な GMM に基づく新しい関連ガウス対比学習 (AGCL) フレームワークを提案します。
サーバー上で、CSA はローカル クライアント GMM の異種カテゴリを集約し、より包括的なカテゴリ知識を含むグローバル GMM を生成します。
各クライアント上で、GCL はローカル GMM とグローバル GMM の両方を使用してクラスレベルの対照学習を構築します。
ローカル GCL は、限られたローカル データを使用して堅牢な表現を学習します。
グローバル GCL は、ローカル データには存在しない可能性がある包括的なカテゴリ関係を使用して、モデルがより識別的な表現を生成することを促進します。
Fed-GCD の研究を容易にするために、6 つの視覚的なデータセットに基づいてベンチマークを構築します。
広範な実験により、AGCL はすべてのデータセットで FedAvg ベースのベースラインを上回るパフォーマンスを示しています。

要約(オリジナル)

Generalized category discovery (GCD) aims at grouping unlabeled samples from known and unknown classes, given labeled data of known classes. To meet the recent decentralization trend in the community, we introduce a practical yet challenging task, namely Federated GCD (Fed-GCD), where the training data are distributively stored in local clients and cannot be shared among clients. The goal of Fed-GCD is to train a generic GCD model by client collaboration under the privacy-protected constraint. The Fed-GCD leads to two challenges: 1) representation degradation caused by training each client model with fewer data than centralized GCD learning, and 2) highly heterogeneous label spaces across different clients. To this end, we propose a novel Associated Gaussian Contrastive Learning (AGCL) framework based on learnable GMMs, which consists of a Client Semantics Association (CSA) and a global-local GMM Contrastive Learning (GCL). On the server, CSA aggregates the heterogeneous categories of local-client GMMs to generate a global GMM containing more comprehensive category knowledge. On each client, GCL builds class-level contrastive learning with both local and global GMMs. The local GCL learns robust representation with limited local data. The global GCL encourages the model to produce more discriminative representation with the comprehensive category relationships that may not exist in local data. We build a benchmark based on six visual datasets to facilitate the study of Fed-GCD. Extensive experiments show that our AGCL outperforms the FedAvg-based baseline on all datasets.

arxiv情報

著者 Nan Pu,Zhun Zhong,Xinyuan Ji,Nicu Sebe
発行日 2023-05-23 14:27:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク