cs.CR」カテゴリーアーカイブ

Blind-Match: Efficient Homomorphic Encryption-Based 1:N Matching for Privacy-Preserving Biometric Identification

要約 効率的でプライバシーを保護する 1:N マッチングのために準同型暗号 (H … 続きを読む

カテゴリー: cs.CR, cs.CV | Blind-Match: Efficient Homomorphic Encryption-Based 1:N Matching for Privacy-Preserving Biometric Identification はコメントを受け付けていません

Rag and Roll: An End-to-End Evaluation of Indirect Prompt Manipulations in LLM-based Application Frameworks

要約 取得拡張生成 (RAG) は、分布外の知識をモデルに装備するために一般的に … 続きを読む

カテゴリー: cs.AI, cs.CR | Rag and Roll: An End-to-End Evaluation of Indirect Prompt Manipulations in LLM-based Application Frameworks はコメントを受け付けていません

On the use of neurosymbolic AI for defending against cyber attacks

要約 すべてのサイバー攻撃を防ぐことはできないことが一般に受け入れられており、サ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | On the use of neurosymbolic AI for defending against cyber attacks はコメントを受け付けていません

Rag and Roll: An End-to-End Evaluation of Indirect Prompt Manipulations in LLM-based Application Frameworks

要約 取得拡張生成 (RAG) は、分布外の知識をモデルに装備するために一般的に … 続きを読む

カテゴリー: cs.AI, cs.CR | Rag and Roll: An End-to-End Evaluation of Indirect Prompt Manipulations in LLM-based Application Frameworks はコメントを受け付けていません

A Jailbroken GenAI Model Can Cause Substantial Harm: GenAI-powered Applications are Vulnerable to PromptWares

要約 この論文では、ジェイルブレイクされた GenAI モデルが GenAI 搭 … 続きを読む

カテゴリー: cs.AI, cs.CR | A Jailbroken GenAI Model Can Cause Substantial Harm: GenAI-powered Applications are Vulnerable to PromptWares はコメントを受け付けていません

AttackER: Towards Enhancing Cyber-Attack Attribution with a Named Entity Recognition Dataset

要約 サイバー攻撃の帰属は、専門家が攻撃者指向の対策と法的措置を講じることを可能 … 続きを読む

カテゴリー: cs.AI, cs.CR | AttackER: Towards Enhancing Cyber-Attack Attribution with a Named Entity Recognition Dataset はコメントを受け付けていません

Shifting the Lens: Detecting Malicious npm Packages using Large Language Models

要約 既存の悪意のあるコード検出技術は、どのパッケージが悪意がある可能性があるか … 続きを読む

カテゴリー: cs.AI, cs.CR | Shifting the Lens: Detecting Malicious npm Packages using Large Language Models はコメントを受け付けていません

Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions

要約 大規模言語モデル (LLM) は、人工知能の大幅な進歩を表し、さまざまなド … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions はコメントを受け付けていません

XNN: Paradigm Shift in Mitigating Identity Leakage within Cloud-Enabled Deep Learning

要約 クラウドベースの深層学習の領域では、外部の計算リソースの必要性と、プライバ … 続きを読む

カテゴリー: cs.CR, cs.CV | XNN: Paradigm Shift in Mitigating Identity Leakage within Cloud-Enabled Deep Learning はコメントを受け付けていません

PriPHiT: Privacy-Preserving Hierarchical Training of Deep Neural Networks

要約 ディープ ニューラル ネットワークのトレーニング フェーズには大量のリソー … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.DC, cs.LG, eess.IV, I.2.10 | PriPHiT: Privacy-Preserving Hierarchical Training of Deep Neural Networks はコメントを受け付けていません