BlockFUL: Enabling Unlearning in Blockchained Federated Learning

要約

Federated Learning (FL) でのアンラーニングには、モデルが複雑な継承関係で成長および進化するため、大きな課題が生じます。
この複雑さは、FL の整合性とトレーサビリティを確保するためにブロックチェーンが採用されるとさらに増幅されます。その場合、相互リンクされた複数のブロックチェーン レコードを編集し、継承されたすべてのモデルを更新する必要があるため、プロセスが複雑になります。このペーパーでは、新しいブロックチェーン フェデレーテッド アンラーニング (BlockFUL) を紹介します。
ブロックチェーン FL 内でアンラーニング機能を有効にするためのライブ チェーンとアーカイブ チェーンで構成されるデュアル チェーン構造のフレームワーク。
BlockFUL は、2 つの新しい非学習パラダイム、つまり並列パラダイムと逐次パラダイムを導入しており、これらは勾配上昇ベースおよび再トレーニングベースの非学習方法を通じて効果的に実装できます。
これらの方法は、効率的なコンセンサス操作を可能にし、計算コストを削減することにより、複数の継承モデルにわたるアンラーニング プロセスを強化します。
私たちの広範な実験により、これらの方法がデータ依存性と運用オーバーヘッドを効果的に削減し、それによって、AlexNet、ResNet18、MobileNetV2 モデルを使用した CIFAR-10 および Fashion-MNIST データセット上の BlockFUL 内の継承モデルのアンラーニングの全体的なパフォーマンスが向上することが検証されました。

要約(オリジナル)

Unlearning in Federated Learning (FL) presents significant challenges, as models grow and evolve with complex inheritance relationships. This complexity is amplified when blockchain is employed to ensure the integrity and traceability of FL, where the need to edit multiple interlinked blockchain records and update all inherited models complicates the process.In this paper, we introduce Blockchained Federated Unlearning (BlockFUL), a novel framework with a dual-chain structure comprising a live chain and an archive chain for enabling unlearning capabilities within Blockchained FL. BlockFUL introduces two new unlearning paradigms, i.e., parallel and sequential paradigms, which can be effectively implemented through gradient-ascent-based and re-training-based unlearning methods. These methods enhance the unlearning process across multiple inherited models by enabling efficient consensus operations and reducing computational costs. Our extensive experiments validate that these methods effectively reduce data dependency and operational overhead, thereby boosting the overall performance of unlearning inherited models within BlockFUL on CIFAR-10 and Fashion-MNIST datasets using AlexNet, ResNet18, and MobileNetV2 models.

arxiv情報

著者 Xiao Liu,Mingyuan Li,Xu Wang,Guangsheng Yu,Wei Ni,Lixiang Li,Haipeng Peng,Renping Liu
発行日 2024-08-14 10:44:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク