要約
ビデオベースの大規模言語モデル (LLM) の出現により、ビデオの理解が大幅に強化されました。
ただし、許可がなくてもビデオに注釈を付けることが容易になるため、データ保護に関する安全上の懸念も生じています。
このペーパーでは、特定のクエリに応じて、特にビデオのコンテンツと説明に関するビデオベースの LLM による不正な注釈からビデオを保護する新しい技術であるビデオ透かしを紹介します。
マルチモーダルフローベースの損失を伴うキービデオフレームに透かしを気づかれないように埋め込むことにより、私たちの方法は、ビデオベースのLLMによる悪用を防ぎながら視聴エクスペリエンスを維持します。
広範な実験により、ビデオ透かしにより、さまざまなビデオベースの LLM を使用したビデオのわかりやすさが大幅に低下し、ステルス性と堅牢性の両方が実証されたことが示されています。
本質的に、私たちの方法は、進化するビデオベースの LLM テクノロジーに直面して、ビデオ コンテンツを保護し、その完全性と機密性を確保するためのソリューションを提供します。
要約(オリジナル)
The advent of video-based Large Language Models (LLMs) has significantly enhanced video understanding. However, it has also raised some safety concerns regarding data protection, as videos can be more easily annotated, even without authorization. This paper introduces Video Watermarking, a novel technique to protect videos from unauthorized annotations by such video-based LLMs, especially concerning the video content and description, in response to specific queries. By imperceptibly embedding watermarks into key video frames with multi-modal flow-based losses, our method preserves the viewing experience while preventing misuse by video-based LLMs. Extensive experiments show that Video Watermarking significantly reduces the comprehensibility of videos with various video-based LLMs, demonstrating both stealth and robustness. In essence, our method provides a solution for securing video content, ensuring its integrity and confidentiality in the face of evolving video-based LLMs technologies.
arxiv情報
著者 | Jinmin Li,Kuofeng Gao,Yang Bai,Jingyun Zhang,Shu-Tao Xia |
発行日 | 2024-07-02 16:34:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google