-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
Verifiable Homomorphic Linear Combinations in Multi-Instance Time-Lock Puzzles
要約 タイムロック パズル (TLP) は、信頼できる第三者に依存せずに機密情報 … 続きを読む
Diff-Cleanse: Identifying and Mitigating Backdoor Attacks in Diffusion Models
要約 拡散モデル (DM) は今日最も高度な生成モデルの 1 つとみなされていま … 続きを読む
Prefix Guidance: A Steering Wheel for Large Language Models to Defend Against Jailbreak Attacks
要約 近年、大規模言語モデル (LLM) の急速な開発により、さまざまなタスクに … 続きを読む
Large Language Models are Good Attackers: Efficient and Stealthy Textual Backdoor Attacks
要約 自然言語処理 (NLP) 分野の急速な進歩に伴い、トレーニング データの需 … 続きを読む
Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models
要約 大規模言語モデル (LLM) に対する主流のバックドア攻撃は通常、入力イン … 続きを読む
Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions
要約 大規模言語モデル (LLM) によって生成される応答には、個人や組織からの … 続きを読む
Against All Odds: Overcoming Typology, Script, and Language Confusion in Multilingual Embedding Inversion Attacks
要約 大規模言語モデル (LLM) は、敵対的攻撃、バックドア攻撃、埋め込み反転 … 続きを読む
CIPHER: Cybersecurity Intelligent Penetration-testing Helper for Ethical Researcher
要約 サイバーセキュリティの重要なコンポーネントである侵入テストは、通常、脆弱性 … 続きを読む
VulDetectBench: Evaluating the Deep Capability of Vulnerability Detection with Large Language Models
要約 大規模言語モデル (LLM) には、大量のプログラム コードを含むトレーニ … 続きを読む