cs.CR」カテゴリーアーカイブ

Exploring the Robustness of In-Context Learning with Noisy Labels

要約 最近、Transformer アーキテクチャ、特に大規模言語モデル (LL … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, math.OC | Exploring the Robustness of In-Context Learning with Noisy Labels はコメントを受け付けていません

Detection of ransomware attacks using federated learning based on the CNN model

要約 コンピューティングは依然としてランサムウェアによる重大な脅威にさらされてお … 続きを読む

カテゴリー: cs.AI, cs.CR | Detection of ransomware attacks using federated learning based on the CNN model はコメントを受け付けていません

Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable

要約 所有者を保護し、安全規制を促進するために、基礎的な生成モデルは追跡可能であ … 続きを読む

カテゴリー: cs.CR, cs.CV | Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable はコメントを受け付けていません

Leveraging Label Information for Stealthy Data Stealing in Vertical Federated Learning

要約 私たちは、現在の検出メカニズムを回避する新しい攻撃戦略である DMAVFL … 続きを読む

カテゴリー: cs.CR, cs.LG | Leveraging Label Information for Stealthy Data Stealing in Vertical Federated Learning はコメントを受け付けていません

On Training a Neural Network to Explain Binaries

要約 この研究では、バイナリ コードを理解するタスクに関してディープ ニューラル … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.SE | On Training a Neural Network to Explain Binaries はコメントを受け付けていません

Transferring Troubles: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning

要約 英語中心の大規模言語モデル (LLM) に対するバックドア攻撃の影響は広く … 続きを読む

カテゴリー: cs.CL, cs.CR | Transferring Troubles: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning はコメントを受け付けていません

PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification

要約 デジタル時代において、データ保護とプライバシーはますます重要になっています … 続きを読む

カテゴリー: cs.AI, cs.CR | PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification はコメントを受け付けていません

Evaluating and Mitigating Linguistic Discrimination in Large Language Models

要約 さまざまな言語のテキストをトレーニングすることにより、大規模言語モデル ( … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.SE | Evaluating and Mitigating Linguistic Discrimination in Large Language Models はコメントを受け付けていません

Universal Jailbreak Backdoors from Poisoned Human Feedback

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、大規模な言語モ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Universal Jailbreak Backdoors from Poisoned Human Feedback はコメントを受け付けていません

Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models

要約 データ ポイズニング攻撃は、トレーニング データを操作して、トレーニング時 … 続きを読む

カテゴリー: cs.AI, cs.CR | Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models はコメントを受け付けていません