cs.CR」カテゴリーアーカイブ

Unveiling the Threat of Fraud Gangs to Graph Neural Networks: Multi-Target Graph Injection Attacks against GNN-Based Fraud Detectors

要約 グラフ ニューラル ネットワーク (GNN) は、不正行為の検出、不正ユー … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Unveiling the Threat of Fraud Gangs to Graph Neural Networks: Multi-Target Graph Injection Attacks against GNN-Based Fraud Detectors はコメントを受け付けていません

SoK: On the Offensive Potential of AI

要約 私たちの社会は人工知能 (AI) の恩恵をますます受けています。 残念なこ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY, cs.LG | SoK: On the Offensive Potential of AI はコメントを受け付けていません

Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation

要約 マルウェアの作成者は、マルウェアの検出を困難にするためにコードの難読化を採 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation はコメントを受け付けていません

Decentralized Intelligence in GameFi: Embodied AI Agents and the Convergence of DeFi and Virtual Ecosystems

要約 ゲームと分散型金融 (DeFi) の融合である GameFi の急速に進化 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.GT, cs.LG, cs.MA | Decentralized Intelligence in GameFi: Embodied AI Agents and the Convergence of DeFi and Virtual Ecosystems はコメントを受け付けていません

EM-MIAs: Enhancing Membership Inference Attacks in Large Language Models through Ensemble Modeling

要約 大規模言語モデル (LLM) が広く適用されるにつれ、モデル トレーニング … 続きを読む

カテゴリー: cs.CR, cs.RO | EM-MIAs: Enhancing Membership Inference Attacks in Large Language Models through Ensemble Modeling はコメントを受け付けていません

Emerging Security Challenges of Large Language Models

要約 大規模言語モデル (LLM) は、教育 [4] や医療 [23] などの重 … 続きを読む

カテゴリー: cs.AI, cs.CR | Emerging Security Challenges of Large Language Models はコメントを受け付けていません

Augment then Smooth: Reconciling Differential Privacy with Certified Robustness

要約 機械学習モデルは、トレーニング データのプライバシーに対する攻撃や、モデル … 続きを読む

カテゴリー: cs.CR, cs.LG | Augment then Smooth: Reconciling Differential Privacy with Certified Robustness はコメントを受け付けていません

Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation

要約 マルウェアの作成者は、マルウェアの検出を困難にするためにコードの難読化を採 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation はコメントを受け付けていません

Watertox: The Art of Simplicity in Universal Attacks A Cross-Model Framework for Robust Adversarial Generation

要約 現代の敵対的攻撃手法は、モデル間の移行性と実際の適用性において重大な制限に … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | Watertox: The Art of Simplicity in Universal Attacks A Cross-Model Framework for Robust Adversarial Generation はコメントを受け付けていません

PEFT-as-an-Attack! Jailbreaking Language Models during Federated Parameter-Efficient Fine-Tuning

要約 Federated Parameter-Efficient Fine-Tu … 続きを読む

カテゴリー: cs.AI, cs.CR | PEFT-as-an-Attack! Jailbreaking Language Models during Federated Parameter-Efficient Fine-Tuning はコメントを受け付けていません