cs.CR」カテゴリーアーカイブ

Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast

要約 マルチモーダル大規模言語モデル (MLLM) エージェントは、命令を受け取 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.CV, cs.LG, cs.MA | Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast はコメントを受け付けていません

Test-Time Backdoor Attacks on Multimodal Large Language Models

要約 バックドア攻撃は通常、トレーニング データを汚染することによって実行され、 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.CV, cs.LG, cs.MM | Test-Time Backdoor Attacks on Multimodal Large Language Models はコメントを受け付けていません

PoisonedRAG: Knowledge Poisoning Attacks to Retrieval-Augmented Generation of Large Language Models

要約 大規模言語モデル (LLM) は、その優れた生成機能により目覚ましい成功を … 続きを読む

カテゴリー: cs.CR, cs.LG | PoisonedRAG: Knowledge Poisoning Attacks to Retrieval-Augmented Generation of Large Language Models はコメントを受け付けていません

Using Graph Theory for Improving Machine Learning-based Detection of Cyber Attacks

要約 ネットワーク侵入とサイバー脅威の早期検出は、サイバーセキュリティの主要な柱 … 続きを読む

カテゴリー: cs.CR, cs.LG | Using Graph Theory for Improving Machine Learning-based Detection of Cyber Attacks はコメントを受け付けていません

CyberMetric: A Benchmark Dataset for Evaluating Large Language Models Knowledge in Cybersecurity

要約 大規模言語モデル (LLM) は、コンピューター ビジョンから医療診断に至 … 続きを読む

カテゴリー: cs.AI, cs.CR | CyberMetric: A Benchmark Dataset for Evaluating Large Language Models Knowledge in Cybersecurity はコメントを受け付けていません

EmojiCrypt: Prompt Encryption for Secure Communication with Large Language Models

要約 ChatGPT などのクラウドベースの大規模言語モデル (LLM) は、日 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.IR, cs.LG | EmojiCrypt: Prompt Encryption for Secure Communication with Large Language Models はコメントを受け付けていません

Evading Data Contamination Detection for Language Models is (too) Easy

要約 大規模な言語モデルは広く普及しており、ベンチマークでのパフォーマンスによっ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Evading Data Contamination Detection for Language Models is (too) Easy はコメントを受け付けていません

Certifying LLM Safety against Adversarial Prompting

要約 大規模言語モデル (LLM) は、悪意のあるトークンを入力プロンプトに追加 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Certifying LLM Safety against Adversarial Prompting はコメントを受け付けていません

On Differentially Private Subspace Estimation Without Distributional Assumptions

要約 プライベート データ分析は、コストの増加につながる、次元の呪いとして知られ … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG | On Differentially Private Subspace Estimation Without Distributional Assumptions はコメントを受け付けていません

Toward More Generalized Malicious URL Detection Models

要約 このペーパーでは、悪意のある URL を検出するための機械学習モデルを実行 … 続きを読む

カテゴリー: cs.CR, cs.LG | Toward More Generalized Malicious URL Detection Models はコメントを受け付けていません