cs.CR」カテゴリーアーカイブ

Differentially Private Clustered Federated Learning

要約 分散化された機械学習(ML)アプローチであるFederated Learn … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Differentially Private Clustered Federated Learning はコメントを受け付けていません

An Interactive Framework for Implementing Privacy-Preserving Federated Learning: Experiments on Large Language Models

要約 Federated Learning(FL)は、ローカルデバイスにユーザー … 続きを読む

カテゴリー: cs.CR, cs.LG | An Interactive Framework for Implementing Privacy-Preserving Federated Learning: Experiments on Large Language Models はコメントを受け付けていません

(How) Can Transformers Predict Pseudo-Random Numbers?

要約 変圧器は、順次データのパターンの発見に優れていますが、その基本的な制限と学 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CR, cs.LG, stat.ML | (How) Can Transformers Predict Pseudo-Random Numbers? はコメントを受け付けていません

SequentialBreak: Large Language Models Can be Fooled by Embedding Jailbreak Prompts into Sequential Prompt Chains

要約 大規模な言語モデル(LLMS)がさまざまなアプリケーションに統合されると、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | SequentialBreak: Large Language Models Can be Fooled by Embedding Jailbreak Prompts into Sequential Prompt Chains はコメントを受け付けていません

SyntheticPop: Attacking Speaker Verification Systems With Synthetic VoicePops

要約 自動スピーカー検証(ASV)としても知られる音声認証(VA)は、特にユーザ … 続きを読む

カテゴリー: cs.CR, cs.LG | SyntheticPop: Attacking Speaker Verification Systems With Synthetic VoicePops はコメントを受け付けていません

PenTest++: Elevating Ethical Hacking with AI and Automation

要約 従来の倫理的ハッキングは、熟練した専門家と時間集約的なコマンド管理に依存し … 続きを読む

カテゴリー: cs.AI, cs.CR | PenTest++: Elevating Ethical Hacking with AI and Automation はコメントを受け付けていません

On the Importance of Backbone to the Adversarial Robustness of Object Detectors

要約 オブジェクト検出は、自律運転やビデオ監視など、さまざまなセキュリティに敏感 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | On the Importance of Backbone to the Adversarial Robustness of Object Detectors はコメントを受け付けていません

Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models

要約 大規模な言語モデルの劇的な増加(LLMS)パラメーターは、プロンプト、つま … 続きを読む

カテゴリー: cs.CL, cs.CR | Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models はコメントを受け付けていません

Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards

要約 AIシステムが重要なインフラストラクチャに統合するにつれて、AIコンプライ … 続きを読む

カテゴリー: cs.AI, cs.CR | Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards はコメントを受け付けていません

Scalable Fingerprinting of Large Language Models

要約 モデルの指紋は、モデル所有者がAPIアクセスを与えられた共有モデルを識別す … 続きを読む

カテゴリー: cs.CR, cs.LG | Scalable Fingerprinting of Large Language Models はコメントを受け付けていません