cs.CR」カテゴリーアーカイブ

SequentialBreak: Large Language Models Can be Fooled by Embedding Jailbreak Prompts into Sequential Prompt Chains

要約 大規模な言語モデル(LLMS)がさまざまなアプリケーションに統合されると、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | SequentialBreak: Large Language Models Can be Fooled by Embedding Jailbreak Prompts into Sequential Prompt Chains はコメントを受け付けていません

SyntheticPop: Attacking Speaker Verification Systems With Synthetic VoicePops

要約 自動スピーカー検証(ASV)としても知られる音声認証(VA)は、特にユーザ … 続きを読む

カテゴリー: cs.CR, cs.LG | SyntheticPop: Attacking Speaker Verification Systems With Synthetic VoicePops はコメントを受け付けていません

PenTest++: Elevating Ethical Hacking with AI and Automation

要約 従来の倫理的ハッキングは、熟練した専門家と時間集約的なコマンド管理に依存し … 続きを読む

カテゴリー: cs.AI, cs.CR | PenTest++: Elevating Ethical Hacking with AI and Automation はコメントを受け付けていません

On the Importance of Backbone to the Adversarial Robustness of Object Detectors

要約 オブジェクト検出は、自律運転やビデオ監視など、さまざまなセキュリティに敏感 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | On the Importance of Backbone to the Adversarial Robustness of Object Detectors はコメントを受け付けていません

Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models

要約 大規模な言語モデルの劇的な増加(LLMS)パラメーターは、プロンプト、つま … 続きを読む

カテゴリー: cs.CL, cs.CR | Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models はコメントを受け付けていません

Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards

要約 AIシステムが重要なインフラストラクチャに統合するにつれて、AIコンプライ … 続きを読む

カテゴリー: cs.AI, cs.CR | Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards はコメントを受け付けていません

Scalable Fingerprinting of Large Language Models

要約 モデルの指紋は、モデル所有者がAPIアクセスを与えられた共有モデルを識別す … 続きを読む

カテゴリー: cs.CR, cs.LG | Scalable Fingerprinting of Large Language Models はコメントを受け付けていません

Auditing Prompt Caching in Language Model APIs

要約 大規模な言語モデル(LLMS)でのプロンプトキャッシュは、データ依存のタイ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Auditing Prompt Caching in Language Model APIs はコメントを受け付けていません

Private Federated Learning In Real World Application — A Case Study

要約 このペーパーでは、エッジデバイスでプライベートフェデレートラーニング(PF … 続きを読む

カテゴリー: cs.CR, cs.LG | Private Federated Learning In Real World Application — A Case Study はコメントを受け付けていません

Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions

要約 大規模な言語モデル(LLM)は、人工知能の大幅な進歩を表し、さまざまなドメ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions はコメントを受け付けていません