要約
訓練されたニューラル ネットワークから訓練データを再構成することは、プライバシーと説明可能性に重大な影響を与える活発な研究分野です。
最近の進歩により、いくつかのデータ型に対してこのプロセスが実現可能であることが実証されました。
ただし、グループ不変ニューラル ネットワークからのデータの再構築には、ほとんど解明されていない明確な課題が伴います。
この文書では、最初に問題を定式化し、その基本的な特性のいくつかについて説明することで、このギャップに対処します。
次に、従来の再構成技術がこのシナリオでは不十分であることを実証する実験的評価を提供します。
具体的には、結果として得られるデータの再構成が、グループが自明に作用する対称的な入力に引き寄せられ、低品質の結果につながることが観察されます。
最後に、この設定での再構成を改善することを目的とした 2 つの新しい方法を提案し、有望な予備実験結果を示します。
私たちの研究は、グループ不変ニューラル ネットワークからデータを再構成する複雑さを明らかにし、この分野の将来の研究に潜在的な道を提供します。
要約(オリジナル)
Reconstructing training data from trained neural networks is an active area of research with significant implications for privacy and explainability. Recent advances have demonstrated the feasibility of this process for several data types. However, reconstructing data from group-invariant neural networks poses distinct challenges that remain largely unexplored. This paper addresses this gap by first formulating the problem and discussing some of its basic properties. We then provide an experimental evaluation demonstrating that conventional reconstruction techniques are inadequate in this scenario. Specifically, we observe that the resulting data reconstructions gravitate toward symmetric inputs on which the group acts trivially, leading to poor-quality results. Finally, we propose two novel methods aiming to improve reconstruction in this setup and present promising preliminary experimental results. Our work sheds light on the complexities of reconstructing data from group invariant neural networks and offers potential avenues for future research in this domain.
arxiv情報
著者 | Ran Elbaz,Gilad Yehudai,Meirav Galun,Haggai Maron |
発行日 | 2024-11-25 15:05:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google