cs.CR」カテゴリーアーカイブ

Network-Aware AutoML Framework for Software-Defined Sensor Networks

要約 現在の分散型サービス拒否攻撃 (DDoS) の検出ソリューションは、高い総 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.NI | Network-Aware AutoML Framework for Software-Defined Sensor Networks はコメントを受け付けていません

Digital Twin-Enabled Intelligent DDoS Detection Mechanism for Autonomous Core Networks

要約 既存の分散型サービス拒否攻撃 (DDoS) ソリューションは、高度に集約さ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.NI | Digital Twin-Enabled Intelligent DDoS Detection Mechanism for Autonomous Core Networks はコメントを受け付けていません

Marich: A Query-efficient Distributionally Equivalent Model Extraction Attack using Public Data

要約 私たちは、有益で分布的に同等なターゲットのレプリカを作成することを目的とし … 続きを読む

カテゴリー: cs.CR, cs.LG, stat.ML | Marich: A Query-efficient Distributionally Equivalent Model Extraction Attack using Public Data はコメントを受け付けていません

PromptBench: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts

要約 学術界や業界全体で大規模言語モデル (LLM) への依存度が高まっているた … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | PromptBench: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts はコメントを受け付けていません

Model Checkers Are Cool: How to Model Check Voting Protocols in Uppaal

要約 電子投票システムの設計と実装は困難な作業です。 ここでは正式な分析が非常に … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LO, cs.MA | Model Checkers Are Cool: How to Model Check Voting Protocols in Uppaal はコメントを受け付けていません

A Cautionary Tale: On the Role of Reference Data in Empirical Privacy Defenses

要約 プライバシー保護機械学習の領域内では、モデルの有用性を大幅に低下させること … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | A Cautionary Tale: On the Role of Reference Data in Empirical Privacy Defenses はコメントを受け付けていません

Revisiting Transferable Adversarial Image Examples: Attack Categorization, Evaluation Guidelines, and New Insights

要約 転送可能な敵対的な例は、現実世界のブラックボックス攻撃シナリオにおいて重大 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Revisiting Transferable Adversarial Image Examples: Attack Categorization, Evaluation Guidelines, and New Insights はコメントを受け付けていません

Last One Standing: A Comparative Analysis of Security and Privacy of Soft Prompt Tuning, LoRA, and In-Context Learning

要約 大規模言語モデル (LLM) は、自然言語処理のための強力なツールであり、 … 続きを読む

カテゴリー: cs.CR, cs.LG | Last One Standing: A Comparative Analysis of Security and Privacy of Soft Prompt Tuning, LoRA, and In-Context Learning はコメントを受け付けていません

zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning

要約 フェデレーション ラーニング (FL) は機械学習パラダイムであり、複数の … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning はコメントを受け付けていません

Evaluating LLMs for Privilege-Escalation Scenarios

要約 サイバーセキュリティの重要な要素であるペネトレーションテストにより、組織は … 続きを読む

カテゴリー: cs.AI, cs.CR | Evaluating LLMs for Privilege-Escalation Scenarios はコメントを受け付けていません