cs.CR」カテゴリーアーカイブ

RITA: Automatic Framework for Designing of Resilient IoT Applications

要約 回復力のあるモノのインターネット (IoT) システムを設計するには、i) … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | RITA: Automatic Framework for Designing of Resilient IoT Applications はコメントを受け付けていません

SoK: Watermarking for AI-Generated Content

要約 生成 AI (GenAI) 技術の出力の品質が向上するにつれて、人間が作成 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | SoK: Watermarking for AI-Generated Content はコメントを受け付けていません

GSE: Group-wise Sparse and Explainable Adversarial Attacks

要約 まばらな敵対的攻撃は、多くの場合 $\ell_0$ ノルムによって正規化さ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG, math.OC | GSE: Group-wise Sparse and Explainable Adversarial Attacks はコメントを受け付けていません

Mitigating the Impact of Noisy Edges on Graph-Based Algorithms via Adversarial Robustness Evaluation

要約 既存のグラフ構築方法では特定のデータセットに対して完全なグラフを生成できな … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Mitigating the Impact of Noisy Edges on Graph-Based Algorithms via Adversarial Robustness Evaluation はコメントを受け付けていません

SoK: Decentralized AI (DeAI)

要約 人工知能 (AI) の一元化は、単一障害点、固有のバイアス、データ プライ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | SoK: Decentralized AI (DeAI) はコメントを受け付けていません

AI-Augmented Ethical Hacking: A Practical Examination of Manual Exploitation and Privilege Escalation in Linux Environments

要約 この研究では、包括的なサイバーセキュリティ評価にとって重要な 2 つの領域 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.NI | AI-Augmented Ethical Hacking: A Practical Examination of Manual Exploitation and Privilege Escalation in Linux Environments はコメントを受け付けていません

RealSeal: Revolutionizing Media Authentication with Real-Time Realism Scoring

要約 ディープフェイクや操作されたメディアの脅威が増大しているため、メディア認証 … 続きを読む

カテゴリー: cs.AI, cs.CR | RealSeal: Revolutionizing Media Authentication with Real-Time Realism Scoring はコメントを受け付けていません

Preventing Jailbreak Prompts as Malicious Tools for Cybercriminals: A Cyber Defense Perspective

要約 脱獄プロンプトは、大規模な言語モデルの倫理的保護手段を回避するように作られ … 続きを読む

カテゴリー: cs.CL, cs.CR | Preventing Jailbreak Prompts as Malicious Tools for Cybercriminals: A Cyber Defense Perspective はコメントを受け付けていません

Guarding the Gate: ConceptGuard Battles Concept-Level Backdoors in Concept Bottleneck Models

要約 AI モデル、特にディープラーニングにおける複雑さの増大により、特に医療診 … 続きを読む

カテゴリー: cs.CR, cs.CV | Guarding the Gate: ConceptGuard Battles Concept-Level Backdoors in Concept Bottleneck Models はコメントを受け付けていません

GSE: Group-wise Sparse and Explainable Adversarial Attacks

要約 まばらな敵対的攻撃は、多くの場合 $\ell_0$ ノルムによって正規化さ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG, math.OC | GSE: Group-wise Sparse and Explainable Adversarial Attacks はコメントを受け付けていません