cs.CR」カテゴリーアーカイブ

XOXO: Stealthy Cross-Origin Context Poisoning Attacks against AI Coding Assistants

要約 AIコーディングアシスタントは、コード生成などのタスクに広く使用されていま … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.SE | XOXO: Stealthy Cross-Origin Context Poisoning Attacks against AI Coding Assistants はコメントを受け付けていません

XOXO: Stealthy Cross-Origin Context Poisoning Attacks against AI Coding Assistants

要約 AIコーディングアシスタントは、コード生成などのタスクに広く使用されていま … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.SE | XOXO: Stealthy Cross-Origin Context Poisoning Attacks against AI Coding Assistants はコメントを受け付けていません

Hacking, The Lazy Way: LLM Augmented Pentesting

要約 私たちの研究では、「Pentest Copilot」という名前のツールで実 … 続きを読む

カテゴリー: cs.AI, cs.CR, I.2.1 | Hacking, The Lazy Way: LLM Augmented Pentesting はコメントを受け付けていません

FlowPure: Continuous Normalizing Flows for Adversarial Purification

要約 この地域の大幅な進歩にもかかわらず、機械学習モデルを採用しているシステムで … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | FlowPure: Continuous Normalizing Flows for Adversarial Purification はコメントを受け付けていません

Cross-Cloud Data Privacy Protection: Optimizing Collaborative Mechanisms of AI Systems by Integrating Federated Learning and LLMs

要約 クラウドコンピューティングの時代には、特にクラウド環境全体で機密データを共 … 続きを読む

カテゴリー: cs.AI, cs.CR | Cross-Cloud Data Privacy Protection: Optimizing Collaborative Mechanisms of AI Systems by Integrating Federated Learning and LLMs はコメントを受け付けていません

Recommender Systems for Democracy: Toward Adversarial Robustness in Voting Advice Applications

要約 投票アドバイスアプリケーション(VAA)は、何百万人もの有権者が、どの政党 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY | Recommender Systems for Democracy: Toward Adversarial Robustness in Voting Advice Applications はコメントを受け付けていません

Phare: A Safety Probe for Large Language Models

要約 大規模な言語モデル(LLMS)の安全性を確保することは責任ある展開に重要で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | Phare: A Safety Probe for Large Language Models はコメントを受け付けていません

On the Feasibility of Using LLMs to Autonomously Execute Multi-host Network Attacks

要約 LLMは、一部のセキュリティタスクとCTFの課題で予備的な約束を示していま … 続きを読む

カテゴリー: cs.AI, cs.CR | On the Feasibility of Using LLMs to Autonomously Execute Multi-host Network Attacks はコメントを受け付けていません

Phare: A Safety Probe for Large Language Models

要約 大規模な言語モデル(LLMS)の安全性を確保することは責任ある展開に重要で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | Phare: A Safety Probe for Large Language Models はコメントを受け付けていません

LLMs unlock new paths to monetizing exploits

要約 私たちは、大規模な言語モデル(LLM)がまもなくサイバー攻撃の経済を変える … 続きを読む

カテゴリー: cs.AI, cs.CR | LLMs unlock new paths to monetizing exploits はコメントを受け付けていません