要約
この作業では、暗号化されたカオスダイナミカルシステムに由来する決定論的でユーザー固有の難読化方法を決定したカオスティックマスキングに基づいて、プライバシーを提供するニューラルネットワーク推論のための軽量フレームワークを紹介します。
このアプローチは、キーコンディショニングされたグラフダイナミクスを使用して、入力テンソルにマスクを適用し、モデルアーキテクチャを変更せずに認証された推論、ユーザーの帰属、ソフト出力の透かしを可能にします。
各マスクを生成するために使用される基礎となる混oticとしたシステムは、分析的に反転可能ではありませんが、マスキング操作自体は、正式な暗号化の保証なしで機能的なプライバシーを提供する認定キーホルダーによって代数的に可逆的です。
従来の暗号化や安全なマルチパーティ計算とは異なり、この方法は連続空間で動作し、最小限の計算オーバーヘッドを課します。
グラフサンプリング、動的ルールの選択、カオス診断など、マスキングシステムの構築について説明します。
アプリケーションには、共有モデルパイプラインでのプライバシーを提供する推論、安全なデータ貢献、およびユーザーごとの透かしが含まれます。
このフレームワークは、最新のAIシステムにおけるユーザー制御プライバシーのための実用的でモジュール式のビルディングブロックを提供します。
要約(オリジナル)
This work introduces a lightweight framework for privacy-preserving neural network inference based on keyed chaotic masking a deterministic, user-specific obfuscation method derived from cryptographically seeded chaotic dynamical systems. The approach applies masks to input and output tensors using key-conditioned graph dynamics, enabling authenticated inference, user attribution, and soft output watermarking without modifying model architectures. While the underlying chaotic system used to generate each mask is not analytically invertible, the masking operation itself is algebraically reversible by authorized key holders, offering functional privacy without formal cryptographic guarantees. Unlike traditional encryption or secure multi-party computation, this method operates in continuous space and imposes minimal computational overhead. We describe the construction of the masking system, including graph sampling, dynamical rule selection, and chaos diagnostics. Applications include privacy-preserving inference, secure data contribution, and per-user watermarking in shared model pipelines. This framework offers a practical and modular building block for user-controlled privacy in modern AI systems.
arxiv情報
著者 | Peter David Fagan |
発行日 | 2025-05-30 10:56:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google