cs.CR」カテゴリーアーカイブ

Augment then Smooth: Reconciling Differential Privacy with Certified Robustness

要約 機械学習モデルは、トレーニング データのプライバシーに対する攻撃や、モデル … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation

要約 マルウェアの作成者は、マルウェアの検出を困難にするためにコードの難読化を採 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

Watertox: The Art of Simplicity in Universal Attacks A Cross-Model Framework for Robust Adversarial Generation

要約 現代の敵対的攻撃手法は、モデル間の移行性と実際の適用性において重大な制限に … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | コメントする

PEFT-as-an-Attack! Jailbreaking Language Models during Federated Parameter-Efficient Fine-Tuning

要約 Federated Parameter-Efficient Fine-Tu … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

Do Parameters Reveal More than Loss for Membership Inference?

要約 メンバーシップ推論攻撃は、開示監査の重要なツールとして使用されます。 彼ら … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Large Language Models and Code Security: A Systematic Literature Review

要約 大規模言語モデル (LLM) は、脆弱性の検出や修正などのセキュリティ関連 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

SoK: Watermarking for AI-Generated Content

要約 生成 AI (GenAI) 技術の出力の品質が向上するにつれて、人間が作成 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Adversarial Robustness of Link Sign Prediction in Signed Graphs

要約 符号付きグラフは、ソーシャル ネットワークにおける肯定的な関係と否定的な関 … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

Flow Exporter Impact on Intelligent Intrusion Detection Systems

要約 特徴生成における不一致は脅威検出の精度と信頼性を妨げる可能性があるため、機 … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

On the Robustness of Distributed Machine Learning against Transfer Attacks

要約 分散機械学習 (分散 ML) はコミュニティでかなりの注目を集めていますが … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする