cs.CR」カテゴリーアーカイブ

Phare: A Safety Probe for Large Language Models

要約 大規模な言語モデル(LLMS)の安全性を確保することは責任ある展開に重要で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | コメントする

LLMs unlock new paths to monetizing exploits

要約 私たちは、大規模な言語モデル(LLM)がまもなくサイバー攻撃の経済を変える … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

Adversarial Suffix Filtering: a Defense Pipeline for LLMs

要約 大規模な言語モデル(LLM)は、自律システムと公共向け環境にますます組み込 … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

What Features in Prompts Jailbreak LLMs? Investigating the Mechanisms Behind Attacks

要約 脱獄は、大規模な言語モデル(LLM)の安全性と信頼性に関する研究の中心的な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

MUBox: A Critical Evaluation Framework of Deep Machine Unlearning

要約 最近の法的枠組みは、忘れられる権利を義務付けており、ユーザー要求に応じて特 … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

On the Impact of Uncertainty and Calibration on Likelihood-Ratio Membership Inference Attacks

要約 メンバーシップ推論攻撃(MIA)では、攻撃者は、典型的な機械学習モデルによ … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, eess.SP, math.IT | コメントする

Securing RAG: A Risk Assessment and Mitigation Framework

要約 検索拡張生成(RAG)は、ユーザー向けのNLPアプリケーションの事実上の業 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.IR | コメントする

Beyond Boundaries: A Comprehensive Survey of Transferable Attacks on AI Systems

要約 人工知能(AI)システムは、自律車両から生体認証まで、ますます重要なアプリ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV | コメントする

Sparsification Under Siege: Defending Against Poisoning Attacks in Communication-Efficient Federated Learning

要約 Federated Learning(FL)は、データプライバシーを維持し … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

PointBA: Towards Backdoor Attacks in 3D Point Cloud

要約 3Dディープラーニングは、多くの安全性の高いアプリケーションを含むさまざま … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | コメントする