cs.CR」カテゴリーアーカイブ

Revisiting Transferable Adversarial Image Examples: Attack Categorization, Evaluation Guidelines, and New Insights

要約 転送可能な敵対的な例は、現実世界のブラックボックス攻撃シナリオにおいて重大 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Revisiting Transferable Adversarial Image Examples: Attack Categorization, Evaluation Guidelines, and New Insights はコメントを受け付けていません

Last One Standing: A Comparative Analysis of Security and Privacy of Soft Prompt Tuning, LoRA, and In-Context Learning

要約 大規模言語モデル (LLM) は、自然言語処理のための強力なツールであり、 … 続きを読む

カテゴリー: cs.CR, cs.LG | Last One Standing: A Comparative Analysis of Security and Privacy of Soft Prompt Tuning, LoRA, and In-Context Learning はコメントを受け付けていません

zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning

要約 フェデレーション ラーニング (FL) は機械学習パラダイムであり、複数の … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning はコメントを受け付けていません

Evaluating LLMs for Privilege-Escalation Scenarios

要約 サイバーセキュリティの重要な要素であるペネトレーションテストにより、組織は … 続きを読む

カテゴリー: cs.AI, cs.CR | Evaluating LLMs for Privilege-Escalation Scenarios はコメントを受け付けていません

Functional Invariants to Watermark Large Transformers

要約 変圧器ベースのモデルの急速な成長により、その完全性と所有権の保険に対する懸 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Functional Invariants to Watermark Large Transformers はコメントを受け付けていません

CARSO: Blending Adversarial Training and Purification Improves Adversarial Robustness

要約 この研究では、敵対的トレーニングと敵対的浄化のパラダイムを相互に有益で堅牢 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | CARSO: Blending Adversarial Training and Purification Improves Adversarial Robustness はコメントを受け付けていません

Passive Inference Attacks on Split Learning via Adversarial Regularization

要約 分割学習 (SL) は、従来の連合学習に代わる実用的かつ効率的な方法として … 続きを読む

カテゴリー: cs.CR, cs.LG | Passive Inference Attacks on Split Learning via Adversarial Regularization はコメントを受け付けていません

Privacy in Large Language Models: Attacks, Defenses and Future Directions

要約 大規模言語モデル (LLM) の進歩により、さまざまな下流の NLP タス … 続きを読む

カテゴリー: cs.CL, cs.CR | Privacy in Large Language Models: Attacks, Defenses and Future Directions はコメントを受け付けていません

User Inference Attacks on Large Language Models

要約 微調整は、大規模言語モデル (LLM) を特殊なタスクやアプリケーションに … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | User Inference Attacks on Large Language Models はコメントを受け付けていません

Privacy-Preserving Encrypted Low-Dose CT Denoising

要約 ディープラーニング (DL) は、断層撮影イメージング、特に低線量コンピュ … 続きを読む

カテゴリー: cs.AI, cs.CR | Privacy-Preserving Encrypted Low-Dose CT Denoising はコメントを受け付けていません