cs.CR」カテゴリーアーカイブ

NYU CTF Dataset: A Scalable Open-Source Benchmark Dataset for Evaluating LLMs in Offensive Security

要約 大規模言語モデル (LLM) は現在、さまざまなドメインに導入されています … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY, cs.LG | NYU CTF Dataset: A Scalable Open-Source Benchmark Dataset for Evaluating LLMs in Offensive Security はコメントを受け付けていません

Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning

要約 フェデレーテッド ラーニング (FL) は、データのプライバシーを維持しな … 続きを読む

カテゴリー: cs.CR, cs.LG | Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning はコメントを受け付けていません

Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity

要約 最近の研究では、GNN がモデル窃取攻撃に対して脆弱であることが実証されて … 続きを読む

カテゴリー: cs.CR, cs.LG | Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity はコメントを受け付けていません

Disparate Impact on Group Accuracy of Linearization for Private Inference

要約 暗号的に安全なデータに対するプライバシー保護の推論を確実に行うことは、計算 … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.LG | Disparate Impact on Group Accuracy of Linearization for Private Inference はコメントを受け付けていません

Towards Robust Knowledge Unlearning: An Adversarial Framework for Assessing and Improving Unlearning Robustness in Large Language Models

要約 LLM は多くの分野で成功を収めていますが、トレーニング コーパスには問題 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Towards Robust Knowledge Unlearning: An Adversarial Framework for Assessing and Improving Unlearning Robustness in Large Language Models はコメントを受け付けていません

While GitHub Copilot Excels at Coding, Does It Ensure Responsible Output?

要約 大規模言語モデル (LLM) の急速な開発により、コード補完機能が大幅に進 … 続きを読む

カテゴリー: cs.CL, cs.CR | While GitHub Copilot Excels at Coding, Does It Ensure Responsible Output? はコメントを受け付けていません

What is in Your Safe Data? Identifying Benign Data that Breaks Safety

要約 現在の大規模言語モデル (LLM) は、安全性と整合性を考慮して調整された … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | What is in Your Safe Data? Identifying Benign Data that Breaks Safety はコメントを受け付けていません

Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory

要約 スマート デバイス、ソーシャル プラットフォーム、AI アプリケーションと … 続きを読む

カテゴリー: cs.CL, cs.CR | Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory はコメントを受け付けていません

Topic-Based Watermarks for LLM-Generated Text

要約 大規模言語モデル (LLM) によって生成されたテキストと人間が生成したテ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Topic-Based Watermarks for LLM-Generated Text はコメントを受け付けていません

Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis

要約 ディープ ニューラル ネットワークは、セマンティック セグメンテーションな … 続きを読む

カテゴリー: cs.CR, cs.CV | Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis はコメントを受け付けていません