cs.CR」カテゴリーアーカイブ

Threats, Attacks, and Defenses in Machine Unlearning: A Survey

要約 Machine Unlearning (MU) は、トレーニング済みの機械 … 続きを読む

カテゴリー: cs.AI, cs.CR | Threats, Attacks, and Defenses in Machine Unlearning: A Survey はコメントを受け付けていません

Can Reinforcement Learning Unlock the Hidden Dangers in Aligned Large Language Models?

要約 大規模言語モデル (LLM) は、自然言語タスクにおいて優れた機能を実証し … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Can Reinforcement Learning Unlock the Hidden Dangers in Aligned Large Language Models? はコメントを受け付けていません

CERT-ED: Certifiably Robust Text Classification for Edit Distance

要約 AIの日常生活への統合が進む中、推論時間攻撃に対するシステムの頑健性を保証 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | CERT-ED: Certifiably Robust Text Classification for Edit Distance はコメントを受け付けていません

Jailbreaking Text-to-Image Models with LLM-Based Agents

要約 近年の進歩により、大規模言語モデル(LLM)を搭載した自律型エージェントを … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Jailbreaking Text-to-Image Models with LLM-Based Agents はコメントを受け付けていません

Pathway to Secure and Trustworthy 6G for LLMs: Attacks, Defense, and Opportunities

要約 近年、大規模言語モデル(LLM)は、通信ネットワークを含む新たなアプリケー … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.DC | Pathway to Secure and Trustworthy 6G for LLMs: Attacks, Defense, and Opportunities はコメントを受け付けていません

DPIS: An Enhanced Mechanism for Differentially Private SGD with Importance Sampling

要約 現在、差分プライバシー (DP) はプライバシー保護の標準として広く受け入 … 続きを読む

カテゴリー: cs.CR, cs.LG | DPIS: An Enhanced Mechanism for Differentially Private SGD with Importance Sampling はコメントを受け付けていません

LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks

要約 ソフトウェア セキュリティ テストの重要なコンポーネントであるペネトレーシ … 続きを読む

カテゴリー: cs.AI, cs.CR | LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks はコメントを受け付けていません

Optimized Deep Learning Models for Malware Detection under Concept Drift

要約 悪意のあるファイルの検出における機械学習モデルの有望な結果にもかかわらず、 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Optimized Deep Learning Models for Malware Detection under Concept Drift はコメントを受け付けていません

FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning

要約 フェデレーション ラーニング (FL) は、プライバシーを維持しながら分散 … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG, math.OC | FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning はコメントを受け付けていません

Figure it Out: Analyzing-based Jailbreak Attack on Large Language Models

要約 大規模言語モデル (LLM) の急速な発展により、さまざまなタスクにわたっ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Figure it Out: Analyzing-based Jailbreak Attack on Large Language Models はコメントを受け付けていません