cs.CR」カテゴリーアーカイブ

Measured Hockey-Stick Divergence and its Applications to Quantum Pufferfish Privacy

要約 ホッケースティックの発散は、古典データと量子データのプライバシーを確​​保 … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT, quant-ph | コメントする

FedCLEAN: byzantine defense by CLustering Errors of Activation maps in Non-IID federated learning environments

要約 Federated Learning (FL) を使用すると、クライアント … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

With Great Backbones Comes Great Adversarial Transferability

要約 マシンビジョンの自己教師あり学習 (SSL) の進歩により、表現の堅牢性と … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, cs.MA | コメントする

The Effect of Similarity Measures on Accurate Stability Estimates for Local Surrogate Models in Text-based Explainable AI

要約 最近の研究では、機械学習 (ML) モデルの入力に対する敵対的な摂動に対す … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

Bandit on the Hunt: Dynamic Crawling for Cyber Threat Intelligence

要約 公開情報には、将来の攻撃を防ぐために使用される貴重なサイバー脅威インテリジ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

Generative AI in Cybersecurity: A Comprehensive Review of LLM Applications and Vulnerabilities

要約 このペーパーでは、生成 AI と大規模言語モデル (LLM) を通じてサイ … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

VLSBench: Unveiling Visual Leakage in Multimodal Safety

要約 マルチモーダル大規模言語モデル (MLLM) の安全性に関する懸念は、さま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV | コメントする

A Survey on Responsible LLMs: Inherent Risk, Malicious Use, and Mitigation Strategy

要約 大規模言語モデル (LLM) は、現実世界の多数のアプリケーションをサポー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | コメントする

PRIMO: Private Regression in Multiple Outcomes

要約 私たちは、複数の結果におけるプライベート回帰 (PRIMO) と呼ばれる新 … 続きを読む

カテゴリー: cs.CR, cs.LG | PRIMO: Private Regression in Multiple Outcomes はコメントを受け付けていません

ARMOR: Shielding Unlearnable Examples against Data Augmentation

要約 個人データがオンラインで公開されると、ディープ ニューラル ネットワーク … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | ARMOR: Shielding Unlearnable Examples against Data Augmentation はコメントを受け付けていません