cs.CR」カテゴリーアーカイブ

Certifiably Robust RAG against Retrieval Corruption

要約 検索拡張生成 (RAG) は、検索破損攻撃に対して脆弱であることがわかって … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Certifiably Robust RAG against Retrieval Corruption はコメントを受け付けていません

Harnessing Large Language Models for Software Vulnerability Detection: A Comprehensive Benchmarking Study

要約 脆弱性を検出するためにさまざまなアプローチが採用されているにもかかわらず、 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | Harnessing Large Language Models for Software Vulnerability Detection: A Comprehensive Benchmarking Study はコメントを受け付けていません

SynGhost: Imperceptible and Universal Task-agnostic Backdoor Attack in Pre-trained Language Models

要約 事前トレーニングは、事前トレーニングされた言語モデル (PLM) をデプロ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | SynGhost: Imperceptible and Universal Task-agnostic Backdoor Attack in Pre-trained Language Models はコメントを受け付けていません

Coordinated Disclosure for AI: Beyond Security Vulnerabilities

要約 人工知能 (AI) 分野における危害報告は現在、その場限りで行われており、 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY | Coordinated Disclosure for AI: Beyond Security Vulnerabilities はコメントを受け付けていません

A First Look at GPT Apps: Landscape and Vulnerability

要約 OpenAI による GPT の導入後、GPT アプリの急増により、専用の … 続きを読む

カテゴリー: cs.CL, cs.CR | A First Look at GPT Apps: Landscape and Vulnerability はコメントを受け付けていません

Towards General Conceptual Model Editing via Adversarial Representation Engineering

要約 大規模言語モデル (LLM) の開発が目覚ましい成功を収めて以来、その内部 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, math.OC | Towards General Conceptual Model Editing via Adversarial Representation Engineering はコメントを受け付けていません

Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning

要約 ディープ ニューラル ネットワーク モデルをセキュリティ クリティカルなさ … 続きを読む

カテゴリー: cs.AI, cs.CR | Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning はコメントを受け付けていません

Membership Inference on Text-to-Image Diffusion Models via Conditional Likelihood Discrepancy

要約 テキストから画像への拡散モデルは、制御可能な画像生成の分野で多大な成功を収 … 続きを読む

カテゴリー: cs.CR, cs.CV | Membership Inference on Text-to-Image Diffusion Models via Conditional Likelihood Discrepancy はコメントを受け付けていません

Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to Identify Trajectory Prediction Vulnerabilities for Autonomous Driving Security

要約 学習ベースのマルチモーダル軌道予測器に対する敵対的攻撃はすでに実証されてい … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.RO, cs.SY, eess.SY | Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to Identify Trajectory Prediction Vulnerabilities for Autonomous Driving Security はコメントを受け付けていません

Adversarial Attacks and Defenses in Automated Control Systems: A Comprehensive Benchmark

要約 機械学習を自動制御システム (ACS) に統合することで、産業プロセス管理 … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.SY, eess.SY, I.2.1 | Adversarial Attacks and Defenses in Automated Control Systems: A Comprehensive Benchmark はコメントを受け付けていません