cs.CR」カテゴリーアーカイブ

DCT-CryptoNets: Scaling Private Inference in the Frequency Domain

要約 完全準同型暗号化 (FHE) と機械学習の融合により、機密データのプライベ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | DCT-CryptoNets: Scaling Private Inference in the Frequency Domain はコメントを受け付けていません

Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions

要約 大規模言語モデル (LLM) によって生成される応答には、個人や組織からの … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions はコメントを受け付けていません

Celtibero: Robust Layered Aggregation for Federated Learning

要約 Federated Learning (FL) は、分散型機械学習への革新 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.DC | Celtibero: Robust Layered Aggregation for Federated Learning はコメントを受け付けていません

Data Exposure from LLM Apps: An In-depth Investigation of OpenAI’s GPTs

要約 LLM アプリのエコシステムは急速に成熟しており、過剰なユーザー データを … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY, cs.LG | Data Exposure from LLM Apps: An In-depth Investigation of OpenAI’s GPTs はコメントを受け付けていません

Verifiable Homomorphic Linear Combinations in Multi-Instance Time-Lock Puzzles

要約 タイムロック パズル (TLP) は、信頼できる第三者に依存せずに機密情報 … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Verifiable Homomorphic Linear Combinations in Multi-Instance Time-Lock Puzzles はコメントを受け付けていません

Diff-Cleanse: Identifying and Mitigating Backdoor Attacks in Diffusion Models

要約 拡散モデル (DM) は今日最も高度な生成モデルの 1 つとみなされていま … 続きを読む

カテゴリー: cs.CR, cs.LG | Diff-Cleanse: Identifying and Mitigating Backdoor Attacks in Diffusion Models はコメントを受け付けていません

Prefix Guidance: A Steering Wheel for Large Language Models to Defend Against Jailbreak Attacks

要約 近年、大規模言語モデル (LLM) の急速な開発により、さまざまなタスクに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Prefix Guidance: A Steering Wheel for Large Language Models to Defend Against Jailbreak Attacks はコメントを受け付けていません

Large Language Models are Good Attackers: Efficient and Stealthy Textual Backdoor Attacks

要約 自然言語処理 (NLP) 分野の急速な進歩に伴い、トレーニング データの需 … 続きを読む

カテゴリー: cs.CL, cs.CR | Large Language Models are Good Attackers: Efficient and Stealthy Textual Backdoor Attacks はコメントを受け付けていません

Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models

要約 大規模言語モデル (LLM) に対する主流のバックドア攻撃は通常、入力イン … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models はコメントを受け付けていません

Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions

要約 大規模言語モデル (LLM) によって生成される応答には、個人や組織からの … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions はコメントを受け付けていません