cs.CR」カテゴリーアーカイブ

Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior

要約 この論文では、クエリを入力するためのモデルの出力フィードバックのみを使用し … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, stat.ML | Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior はコメントを受け付けていません

Position Paper: Think Globally, React Locally — Bringing Real-time Reference-based Website Phishing Detection on macOS

要約 背景。 最近のフィッシング攻撃の急増により、従来のフィッシング対策ブラック … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Position Paper: Think Globally, React Locally — Bringing Real-time Reference-based Website Phishing Detection on macOS はコメントを受け付けていません

Cutting through buggy adversarial example defenses: fixing 1 line of code breaks Sabre

要約 Sabre は、IEEE S&P 2024 で承認された敵対的な … 続きを読む

カテゴリー: cs.CR, cs.LG | Cutting through buggy adversarial example defenses: fixing 1 line of code breaks Sabre はコメントを受け付けていません

Certifiably Robust RAG against Retrieval Corruption

要約 検索拡張生成 (RAG) は、検索破損攻撃に対して脆弱であることがわかって … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Certifiably Robust RAG against Retrieval Corruption はコメントを受け付けていません

Harnessing Large Language Models for Software Vulnerability Detection: A Comprehensive Benchmarking Study

要約 脆弱性を検出するためにさまざまなアプローチが採用されているにもかかわらず、 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | Harnessing Large Language Models for Software Vulnerability Detection: A Comprehensive Benchmarking Study はコメントを受け付けていません

SynGhost: Imperceptible and Universal Task-agnostic Backdoor Attack in Pre-trained Language Models

要約 事前トレーニングは、事前トレーニングされた言語モデル (PLM) をデプロ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | SynGhost: Imperceptible and Universal Task-agnostic Backdoor Attack in Pre-trained Language Models はコメントを受け付けていません

Coordinated Disclosure for AI: Beyond Security Vulnerabilities

要約 人工知能 (AI) 分野における危害報告は現在、その場限りで行われており、 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY | Coordinated Disclosure for AI: Beyond Security Vulnerabilities はコメントを受け付けていません

A First Look at GPT Apps: Landscape and Vulnerability

要約 OpenAI による GPT の導入後、GPT アプリの急増により、専用の … 続きを読む

カテゴリー: cs.CL, cs.CR | A First Look at GPT Apps: Landscape and Vulnerability はコメントを受け付けていません

Towards General Conceptual Model Editing via Adversarial Representation Engineering

要約 大規模言語モデル (LLM) の開発が目覚ましい成功を収めて以来、その内部 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, math.OC | Towards General Conceptual Model Editing via Adversarial Representation Engineering はコメントを受け付けていません

Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning

要約 ディープ ニューラル ネットワーク モデルをセキュリティ クリティカルなさ … 続きを読む

カテゴリー: cs.AI, cs.CR | Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning はコメントを受け付けていません