-
最近の投稿
- KISS-Matcher: Fast and Robust Point Cloud Registration Revisited
- Unpacking Failure Modes of Generative Policies: Runtime Monitoring of Consistency and Progress
- Mode-GS: Monocular Depth Guided Anchored 3D Gaussian Splatting for Robust Ground-View Scene Rendering
- A Universal Formulation for Path-Parametric Planning and Control
- Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting
-
最近のコメント
表示できるコメントはありません。 cs.AI (27775) cs.CL (20990) cs.CR (2176) cs.CV (34489) cs.LG (32518) cs.RO (15916) cs.SY (2472) eess.IV (4231) eess.SY (2466) stat.ML (4356)
「cs.CR」カテゴリーアーカイブ
Extracting Training Data from Unconditional Diffusion Models
要約 拡散確率モデル (DPM) が生成人工知能 (AI) の主流モデルとして採 … 続きを読む
Adversarial Attacks on Multimodal Agents
要約 現在、ビジョン対応言語モデル (VLM) は、実際の環境でアクションを実行 … 続きを読む
Knowledge-to-Jailbreak: One Knowledge Point Worth One Attack
要約 大規模言語モデル (LLM) はさまざまなドメインにますます適用されており … 続きを読む
A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving
要約 軌道予測は、過去の軌道に基づいて近くのエージェントの動きを予測します。 自 … 続きを読む
MLLM-Protector: Ensuring MLLM’s Safety without Hurting Performance
要約 マルチモーダル大規模言語モデル (MLLM) の展開により、視覚的な入力を … 続きを読む
Perturbing Attention Gives You More Bang for the Buck: Subtle Imaging Perturbations That Efficiently Fool Customized Diffusion Models
要約 拡散モデル (DM) は生成モデリングの新時代を迎え、高品質で現実的なデー … 続きを読む
SecureLLM: Using Compositionality to Build Provably Secure Language Models for Private, Sensitive, and Secret Data
要約 従来のセキュリティメカニズムは、リソースにアクセスすべきではないユーザーか … 続きを読む
JailbreakEval: An Integrated Toolkit for Evaluating Jailbreak Attempts Against Large Language Models
要約 ジェイルブレイク攻撃は、大規模言語モデル (LLM) が禁止された命令に対 … 続きを読む
Bag of Tricks: Benchmarking of Jailbreak Attacks on LLMs
要約 Large Language Model (LLM) は、複雑なタスクをゼ … 続きを読む
The VoicePrivacy 2024 Challenge Evaluation Plan
要約 この課題の課題は、言語内容や感情状態を保護しながら、話者の声のアイデンティ … 続きを読む