要約
フェデレーションされたシナリオ向けの集中クラスタリングの本質的な拡張機能であるフェデレーションクラスタリングにより、複数のデータ保持クライアントがデータをローカルに保持しながら、データをグループ化することができます。
集中シナリオでは、表現学習によって駆動されるクラスタリングにより、高次元の複雑なデータの処理において大きな進歩がありました。
ただし、フェデレートクラスタリングと表現学習の組み合わせは、採用されていないままです。
これを橋渡しするために、まずクラスタリングに優しい表現を学習するためのクラスター制御モデルを調整します。
次に、このモデルを、クラスター制御のフェデレートクラスタリング(CCFC)と呼ばれる新しいフェデレーションクラスタリング方法を提案するための基礎として活用します。
表現学習の恩恵を受けて、CCFCのクラスタリングパフォーマンスは、場合によっては最高のベースラインメソッドのクラスタリングパフォーマンスも2倍になります。
最も関連するベースラインと比較して、この利点は、最も顕著なケースで最大0.4155の大幅なNMIスコアの改善をもたらします。
さらに、CCFCは、実際の観点からデバイスの障害を処理する際の優れたパフォーマンスも示しています。
要約(オリジナル)
Federated clustering, an essential extension of centralized clustering for federated scenarios, enables multiple data-holding clients to collaboratively group data while keeping their data locally. In centralized scenarios, clustering driven by representation learning has made significant advancements in handling high-dimensional complex data. However, the combination of federated clustering and representation learning remains underexplored. To bridge this, we first tailor a cluster-contrastive model for learning clustering-friendly representations. Then, we harness this model as the foundation for proposing a new federated clustering method, named cluster-contrastive federated clustering (CCFC). Benefiting from representation learning, the clustering performance of CCFC even double those of the best baseline methods in some cases. Compared to the most related baseline, the benefit results in substantial NMI score improvements of up to 0.4155 on the most conspicuous case. Moreover, CCFC also shows superior performance in handling device failures from a practical viewpoint.
arxiv情報
著者 | Jing Liu,Jie Yan,Zhong-Yuan Zhang |
発行日 | 2025-06-02 07:36:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google