cs.CR」カテゴリーアーカイブ

Extracting Training Data from Unconditional Diffusion Models

要約 拡散確率モデル (DPM) が生成人工知能 (AI) の主流モデルとして採 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Extracting Training Data from Unconditional Diffusion Models はコメントを受け付けていません

Adversarial Attacks on Multimodal Agents

要約 現在、ビジョン対応言語モデル (VLM) は、実際の環境でアクションを実行 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.CV, cs.LG | Adversarial Attacks on Multimodal Agents はコメントを受け付けていません

Knowledge-to-Jailbreak: One Knowledge Point Worth One Attack

要約 大規模言語モデル (LLM) はさまざまなドメインにますます適用されており … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Knowledge-to-Jailbreak: One Knowledge Point Worth One Attack はコメントを受け付けていません

A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving

要約 軌道予測は、過去の軌道に基づいて近くのエージェントの動きを予測します。 自 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving はコメントを受け付けていません

MLLM-Protector: Ensuring MLLM’s Safety without Hurting Performance

要約 マルチモーダル大規模言語モデル (MLLM) の展開により、視覚的な入力を … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.CV | MLLM-Protector: Ensuring MLLM’s Safety without Hurting Performance はコメントを受け付けていません

Perturbing Attention Gives You More Bang for the Buck: Subtle Imaging Perturbations That Efficiently Fool Customized Diffusion Models

要約 拡散モデル (DM) は生成モデリングの新時代を迎え、高品質で現実的なデー … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Perturbing Attention Gives You More Bang for the Buck: Subtle Imaging Perturbations That Efficiently Fool Customized Diffusion Models はコメントを受け付けていません

SecureLLM: Using Compositionality to Build Provably Secure Language Models for Private, Sensitive, and Secret Data

要約 従来のセキュリティメカニズムは、リソースにアクセスすべきではないユーザーか … 続きを読む

カテゴリー: cs.CL, cs.CR | SecureLLM: Using Compositionality to Build Provably Secure Language Models for Private, Sensitive, and Secret Data はコメントを受け付けていません

JailbreakEval: An Integrated Toolkit for Evaluating Jailbreak Attempts Against Large Language Models

要約 ジェイルブレイク攻撃は、大規模言語モデル (LLM) が禁止された命令に対 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | JailbreakEval: An Integrated Toolkit for Evaluating Jailbreak Attempts Against Large Language Models はコメントを受け付けていません

Bag of Tricks: Benchmarking of Jailbreak Attacks on LLMs

要約 Large Language Model (LLM) は、複雑なタスクをゼ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Bag of Tricks: Benchmarking of Jailbreak Attacks on LLMs はコメントを受け付けていません

The VoicePrivacy 2024 Challenge Evaluation Plan

要約 この課題の課題は、言語内容や感情状態を保護しながら、話者の声のアイデンティ … 続きを読む

カテゴリー: cs.CL, cs.CR, eess.AS | The VoicePrivacy 2024 Challenge Evaluation Plan はコメントを受け付けていません