IPR-NeRF: Ownership Verification meets Neural Radiance Field

要約

Neural Radiance Field (NeRF) モデルは、最先端のビジュアル品質により、近年コンピューター ビジョン コミュニティで大きな注目を集め、印象的なデモンストレーションを行いました。
それ以来、テクノプレナーたちは NeRF モデルを収益性の高いビジネスに活用しようと努めてきました。
したがって、NeRF モデルでは、盗用者がこれらのモデルを違法にコピー、再配布、または悪用するリスクを負う価値があります。
この論文では、ブラック ボックス設定とホワイト ボックス設定の両方における NeRF モデルの包括的な知的財産 (IP) 保護フレームワーク、つまり IPR-NeRF を提案します。
ブラックボックス設定では、2 段階の最適化プロセスを介して透かしを埋め込み、抽出するために拡散ベースのソリューションが導入されます。
ホワイトボックス設定では、符号損失目標を採用することにより、指定されたデジタル署名が NeRF モデルの重みに埋め込まれます。
私たちの広範な実験は、私たちのアプローチが IPR-NeRF モデルの忠実度 (つまり、レンダリング品質) を維持するだけでなく、従来技術と比較して曖昧さと除去攻撃の両方に対して堅牢であることを示しています。

要約(オリジナル)

Neural Radiance Field (NeRF) models have gained significant attention in the computer vision community in the recent past with state-of-the-art visual quality and produced impressive demonstrations. Since then, technopreneurs have sought to leverage NeRF models into a profitable business. Therefore, NeRF models make it worth the risk of plagiarizers illegally copying, re-distributing, or misusing those models. This paper proposes a comprehensive intellectual property (IP) protection framework for the NeRF model in both black-box and white-box settings, namely IPR-NeRF. In the black-box setting, a diffusion-based solution is introduced to embed and extract the watermark via a two-stage optimization process. In the white-box setting, a designated digital signature is embedded into the weights of the NeRF model by adopting the sign loss objective. Our extensive experiments demonstrate that not only does our approach maintain the fidelity (\ie, the rendering quality) of IPR-NeRF models, but it is also robust against both ambiguity and removal attacks compared to prior arts.

arxiv情報

著者 Win Kent Ong,Kam Woh Ng,Chee Seng Chan,Yi Zhe Song,Tao Xiang
発行日 2024-01-23 03:09:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク