Cross-feature Contrastive Loss for Decentralized Deep Learning on Heterogeneous Data

要約

現在の最先端の分散学習アルゴリズムは、ほとんどの場合、データ分散が独立かつ同一分散 (IID) であることを前提としています。
ただし、実際のシナリオでは、分散データセットはエージェント間で非常に異質なデータ分散を持つ可能性があります。
この研究では、異種データに対する分散学習のための新しいアプローチを紹介します。このアプローチでは、クロス特徴の対比損失によるデータフリーの知識の蒸留を利用してパフォーマンスを向上させます。
隣接するエージェントのペアの相互特徴は、他のエージェントのモデル パラメーターに関してエージェントのデータから取得された特徴 (つまり、最後の隠れ層のアクティブ化) です。
さまざまなコンピューター ビジョン データセット (CIFAR-10、CIFAR-100、ファッション MNIST、ImageNet)、モデル アーキテクチャ、およびネットワーク トポロジに関する一連の徹底的な実験を通じて、提案された手法の有効性を実証します。
私たちの実験は、提案された方法が、異種データに対する分散学習のための他の既存の技術と比較して優れたパフォーマンス(テスト精度の0.2〜4%の向上)を達成することを示しています。

要約(オリジナル)

The current state-of-the-art decentralized learning algorithms mostly assume the data distribution to be Independent and Identically Distributed (IID). However, in practical scenarios, the distributed datasets can have significantly heterogeneous data distributions across the agents. In this work, we present a novel approach for decentralized learning on heterogeneous data, where data-free knowledge distillation through contrastive loss on cross-features is utilized to improve performance. Cross-features for a pair of neighboring agents are the features (i.e., last hidden layer activations) obtained from the data of an agent with respect to the model parameters of the other agent. We demonstrate the effectiveness of the proposed technique through an exhaustive set of experiments on various Computer Vision datasets (CIFAR-10, CIFAR-100, Fashion MNIST, and ImageNet), model architectures, and network topologies. Our experiments show that the proposed method achieves superior performance (0.2-4% improvement in test accuracy) compared to other existing techniques for decentralized learning on heterogeneous data.

arxiv情報

著者 Sai Aparna Aketi,Kaushik Roy
発行日 2023-10-24 14:48:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク