-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
IncogniText: Privacy-enhancing Conditional Text Anonymization via LLM-based Private Attribute Randomization
要約 本研究では、テキストの匿名化の問題を扱う。その目的は、テキストの有用性、す … 続きを読む
NSmark: Null Space Based Black-box Watermarking Defense Framework for Language Models
要約 言語モデル(LM)は、保護が必要な重要な知的財産(IP)として浮上している … 続きを読む
Generative AI Models: Opportunities and Risks for Industry and Authorities
要約 ジェネレーティブAIモデルは、従来は創造性や人間の理解が必要であった様々な … 続きを読む
PBI-Attack: Prior-Guided Bimodal Interactive Black-Box Jailbreak Attack for Toxicity Maximization
要約 ジェイルブレイク攻撃に対するラージビジョン言語モデル(LVLM)の脆弱性を … 続きを読む
Large Language Models are Advanced Anonymizers
要約 大規模言語モデル(LLM)に関する最近のプライバシー研究では、LLMがオン … 続きを読む
DeTrigger: A Gradient-Centric Approach to Backdoor Attack Mitigation in Federated Learning
要約 Federated Learning(FL)は、ローカルデータのプライバシ … 続きを読む
The TIP of the Iceberg: Revealing a Hidden Class of Task-In-Prompt Adversarial Attacks on LLMs
要約 我々は、LLMに対する脱獄敵対的攻撃の新しいクラス、タスク・イン・プロンプ … 続きを読む
Contraction of Private Quantum Channels and Private Quantum Hypothesis Testing
要約 定義による量子全般的な発散は、データ処理の不平等を満たします。 そのため、 … 続きを読む
Towards Universal Certified Robustness with Multi-Norm Training
要約 既存の認定トレーニング方法は、特定の摂動タイプに対して堅牢になるようにモデ … 続きを読む
Imitation Game for Adversarial Disillusion with Multimodal Generative Chain-of-Thought Role-Play
要約 人工知能の礎石として、機械の知覚は敵対的な幻想によってもたらされる基本的な … 続きを読む