cs.CR」カテゴリーアーカイブ

Introducing Perturb-ability Score (PS) to Enhance Robustness Against Problem-Space Evasion Adversarial Attacks on Flow-based ML-NIDS

要約 ネットワーク セキュリティの脅威が進化し続ける中、機械学習 (ML) ベー … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Introducing Perturb-ability Score (PS) to Enhance Robustness Against Problem-Space Evasion Adversarial Attacks on Flow-based ML-NIDS はコメントを受け付けていません

Measured Hockey-Stick Divergence and its Applications to Quantum Pufferfish Privacy

要約 ホッケースティックの発散は、古典データと量子データのプライバシーを確​​保 … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT, quant-ph | Measured Hockey-Stick Divergence and its Applications to Quantum Pufferfish Privacy はコメントを受け付けていません

FedCLEAN: byzantine defense by CLustering Errors of Activation maps in Non-IID federated learning environments

要約 Federated Learning (FL) を使用すると、クライアント … 続きを読む

カテゴリー: cs.AI, cs.CR | FedCLEAN: byzantine defense by CLustering Errors of Activation maps in Non-IID federated learning environments はコメントを受け付けていません

With Great Backbones Comes Great Adversarial Transferability

要約 マシンビジョンの自己教師あり学習 (SSL) の進歩により、表現の堅牢性と … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, cs.MA | With Great Backbones Comes Great Adversarial Transferability はコメントを受け付けていません

The Effect of Similarity Measures on Accurate Stability Estimates for Local Surrogate Models in Text-based Explainable AI

要約 最近の研究では、機械学習 (ML) モデルの入力に対する敵対的な摂動に対す … 続きを読む

カテゴリー: cs.CR, cs.LG | The Effect of Similarity Measures on Accurate Stability Estimates for Local Surrogate Models in Text-based Explainable AI はコメントを受け付けていません

Bandit on the Hunt: Dynamic Crawling for Cyber Threat Intelligence

要約 公開情報には、将来の攻撃を防ぐために使用される貴重なサイバー脅威インテリジ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Bandit on the Hunt: Dynamic Crawling for Cyber Threat Intelligence はコメントを受け付けていません

Generative AI in Cybersecurity: A Comprehensive Review of LLM Applications and Vulnerabilities

要約 このペーパーでは、生成 AI と大規模言語モデル (LLM) を通じてサイ … 続きを読む

カテゴリー: cs.AI, cs.CR | Generative AI in Cybersecurity: A Comprehensive Review of LLM Applications and Vulnerabilities はコメントを受け付けていません

VLSBench: Unveiling Visual Leakage in Multimodal Safety

要約 マルチモーダル大規模言語モデル (MLLM) の安全性に関する懸念は、さま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV | VLSBench: Unveiling Visual Leakage in Multimodal Safety はコメントを受け付けていません

A Survey on Responsible LLMs: Inherent Risk, Malicious Use, and Mitigation Strategy

要約 大規模言語モデル (LLM) は、現実世界の多数のアプリケーションをサポー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | A Survey on Responsible LLMs: Inherent Risk, Malicious Use, and Mitigation Strategy はコメントを受け付けていません

PRIMO: Private Regression in Multiple Outcomes

要約 私たちは、複数の結果におけるプライベート回帰 (PRIMO) と呼ばれる新 … 続きを読む

カテゴリー: cs.CR, cs.LG | PRIMO: Private Regression in Multiple Outcomes はコメントを受け付けていません