要約
フェデレーション ラーニング (FL) は、データ プライバシーを保護しながらモデルの共有とコラボレーションを可能にすることで、人工知能テクノロジーの開発と応用を促進します。
ナレッジ グラフ (KG) 埋め込み表現は、エンティティと関係をベクトル空間にマッピングすることにより、知識推論とアプリケーションの基盤を提供します。
Federated KG の埋め込みにより、ローカル データのプライバシーを保護しながら、さまざまなクライアント ソースからの知識を利用できるようになります。
しかし、プライバシー保護や動的なデータ変化に適応する必要性などの需要により、機械非学習 (MU) に関する研究が活発化しています。
ただし、忘れられた特定のデータがモデルに与える影響を忘れながら、KG 埋め込みモデルのパフォーマンスを維持することは困難です。
この論文では、フェデレーテッド ナレッジ グラフにおける機械の非学習に合わせた新しいフレームワークである FedDM を提案します。
拡散モデルを活用して、残りのデータに関する全体的なパフォーマンスを維持しながら、FL モデルに対する特定の知識の影響を賢明に軽減するためにノイズの多いデータを生成します。
提案されたモデルの有効性を評価するために、ベンチマーク データセットに対して実験的評価を実施します。
広範な実験により、FedDM が知識の忘却において有望な結果をもたらすことが実証されました。
要約(オリジナル)
Federated learning (FL) promotes the development and application of artificial intelligence technologies by enabling model sharing and collaboration while safeguarding data privacy. Knowledge graph (KG) embedding representation provides a foundation for knowledge reasoning and applications by mapping entities and relations into vector space. Federated KG embedding enables the utilization of knowledge from diverse client sources while safeguarding the privacy of local data. However, due to demands such as privacy protection and the need to adapt to dynamic data changes, investigations into machine unlearning (MU) have been sparked. However, it is challenging to maintain the performance of KG embedding models while forgetting the influence of specific forgotten data on the model. In this paper, we propose FedDM, a novel framework tailored for machine unlearning in federated knowledge graphs. Leveraging diffusion models, we generate noisy data to sensibly mitigate the influence of specific knowledge on FL models while preserving the overall performance concerning the remaining data. We conduct experimental evaluations on benchmark datasets to assess the efficacy of the proposed model. Extensive experiments demonstrate that FedDM yields promising results in knowledge forgetting.
arxiv情報
著者 | Bingchen Liu,Yuanyuan Fang |
発行日 | 2024-03-13 14:06:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google