cs.CR」カテゴリーアーカイブ

Against All Odds: Overcoming Typology, Script, and Language Confusion in Multilingual Embedding Inversion Attacks

要約 大規模言語モデル (LLM) は、敵対的攻撃、バックドア攻撃、埋め込み反転 … 続きを読む

カテゴリー: cs.CL, cs.CR | Against All Odds: Overcoming Typology, Script, and Language Confusion in Multilingual Embedding Inversion Attacks はコメントを受け付けていません

CIPHER: Cybersecurity Intelligent Penetration-testing Helper for Ethical Researcher

要約 サイバーセキュリティの重要なコンポーネントである侵入テストは、通常、脆弱性 … 続きを読む

カテゴリー: cs.AI, cs.CR | CIPHER: Cybersecurity Intelligent Penetration-testing Helper for Ethical Researcher はコメントを受け付けていません

VulDetectBench: Evaluating the Deep Capability of Vulnerability Detection with Large Language Models

要約 大規模言語モデル (LLM) には、大量のプログラム コードを含むトレーニ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | VulDetectBench: Evaluating the Deep Capability of Vulnerability Detection with Large Language Models はコメントを受け付けていません

Efficient Detection of Toxic Prompts in Large Language Models

要約 ChatGPT や Gemini などの大規模言語モデル (LLM) は、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.SE | Efficient Detection of Toxic Prompts in Large Language Models はコメントを受け付けていません

NYU CTF Dataset: A Scalable Open-Source Benchmark Dataset for Evaluating LLMs in Offensive Security

要約 大規模言語モデル (LLM) は現在、さまざまなドメインに導入されています … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY, cs.LG | NYU CTF Dataset: A Scalable Open-Source Benchmark Dataset for Evaluating LLMs in Offensive Security はコメントを受け付けていません

Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning

要約 フェデレーテッド ラーニング (FL) は、データのプライバシーを維持しな … 続きを読む

カテゴリー: cs.CR, cs.LG | Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning はコメントを受け付けていません

Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity

要約 最近の研究では、GNN がモデル窃取攻撃に対して脆弱であることが実証されて … 続きを読む

カテゴリー: cs.CR, cs.LG | Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity はコメントを受け付けていません

Disparate Impact on Group Accuracy of Linearization for Private Inference

要約 暗号的に安全なデータに対するプライバシー保護の推論を確実に行うことは、計算 … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.LG | Disparate Impact on Group Accuracy of Linearization for Private Inference はコメントを受け付けていません

Towards Robust Knowledge Unlearning: An Adversarial Framework for Assessing and Improving Unlearning Robustness in Large Language Models

要約 LLM は多くの分野で成功を収めていますが、トレーニング コーパスには問題 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Towards Robust Knowledge Unlearning: An Adversarial Framework for Assessing and Improving Unlearning Robustness in Large Language Models はコメントを受け付けていません

While GitHub Copilot Excels at Coding, Does It Ensure Responsible Output?

要約 大規模言語モデル (LLM) の急速な開発により、コード補完機能が大幅に進 … 続きを読む

カテゴリー: cs.CL, cs.CR | While GitHub Copilot Excels at Coding, Does It Ensure Responsible Output? はコメントを受け付けていません