要約
フェデレーテッド ラーニング (FL) は、複数の参加者がデータを一元管理することなく、ディープ ニューラル ネットワーク (DNN) を共同でトレーニングできるようにする手法です。
他の利点の中でも、プライバシー保護特性が備わっているため、医療や軍事などの機密性の高い状況での用途に魅力的です。
データは明示的に交換されませんが、トレーニング手順では参加者のモデルに関する情報を共有する必要があります。
これにより、個々のモデルが悪意のある攻撃者による盗難や不正配布に対して脆弱になります。
機械学習 (ML) のコンテキストにおける所有権保護の問題に対処するために、DNN 透かし手法が過去 5 年間に開発されました。
既存の研究のほとんどは集中的な方法で透かしを入れることに重点を置いていますが、FL とその固有の制約のために設計された方法はほんのわずかです。
このペーパーでは、Federated Learning ウォーターマークの最近の進歩の概要を示し、この分野で生じる新たな課題と機会に光を当てます。
要約(オリジナル)
Federated Learning (FL) is a technique that allows multiple participants to collaboratively train a Deep Neural Network (DNN) without the need of centralizing their data. Among other advantages, it comes with privacy-preserving properties making it attractive for application in sensitive contexts, such as health care or the military. Although the data are not explicitly exchanged, the training procedure requires sharing information about participants’ models. This makes the individual models vulnerable to theft or unauthorized distribution by malicious actors. To address the issue of ownership rights protection in the context of Machine Learning (ML), DNN Watermarking methods have been developed during the last five years. Most existing works have focused on watermarking in a centralized manner, but only a few methods have been designed for FL and its unique constraints. In this paper, we provide an overview of recent advancements in Federated Learning watermarking, shedding light on the new challenges and opportunities that arise in this field.
arxiv情報
| 著者 | Mohammed Lansari,Reda Bellafqira,Katarzyna Kapusta,Vincent Thouvenot,Olivier Bettan,Gouenou Coatrieux |
| 発行日 | 2023-08-07 13:24:52+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google