cs.CR」カテゴリーアーカイブ

Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective

要約 グラフ ニューラル ネットワーク (GNN) は、さまざまなタスクで顕著な … 続きを読む

カテゴリー: cs.CR, cs.LG | Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective はコメントを受け付けていません

Differentially private projection-depth-based medians

要約 私たちは、プロポーザル・テスト・リリース (PTR) および指数関数メカニ … 続きを読む

カテゴリー: 62G35, cs.CR, cs.LG, math.ST, stat.ME, stat.TH | Differentially private projection-depth-based medians はコメントを受け付けていません

Transpose Attack: Stealing Datasets with Bidirectional Training

要約 ディープ ニューラル ネットワークは通常、順方向に実行されます。 ただし、 … 続きを読む

カテゴリー: cs.CR, cs.LG | Transpose Attack: Stealing Datasets with Bidirectional Training はコメントを受け付けていません

Bypassing the Safety Training of Open-Source LLMs with Priming Attacks

要約 最近 LLM の人気が高まっているため、LLM の安全トレーニングの必要性 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Bypassing the Safety Training of Open-Source LLMs with Priming Attacks はコメントを受け付けていません

The Effect of Quantization in Federated Learning: A Rényi Differential Privacy Perspective

要約 Federated Learning (FL) は、分散データを使用したプ … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | The Effect of Quantization in Federated Learning: A Rényi Differential Privacy Perspective はコメントを受け付けていません

Disguised Copyright Infringement of Latent Diffusion Models

要約 著作権侵害は、生成モデルがトレーニング段階でアクセスした著作権で保護された … 続きを読む

カテゴリー: cs.CR, cs.LG | Disguised Copyright Infringement of Latent Diffusion Models はコメントを受け付けていません

MarkLLM: An Open-Source Toolkit for LLM Watermarking

要約 LLM 透かしは、LLM で生成されたテキストを識別するために、モデル出力 … 続きを読む

カテゴリー: 68T50, cs.CL, cs.CR, I.2.7 | MarkLLM: An Open-Source Toolkit for LLM Watermarking はコメントを受け付けていません

Generalization or Memorization: Data Contamination and Trustworthy Evaluation for Large Language Models

要約 大規模言語モデル (LLM) の優れた機能に関する最近の声明は、通常、オー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, cs.SE | Generalization or Memorization: Data Contamination and Trustworthy Evaluation for Large Language Models はコメントを受け付けていません

Protecting Your LLMs with Information Bottleneck

要約 大規模言語モデル (LLM) の出現は自然言語処理の分野に革命をもたらしま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Protecting Your LLMs with Information Bottleneck はコメントを受け付けていません

Neural Collapse Meets Differential Privacy: Curious Behaviors of NoisyGD with Near-perfect Representation Learning

要約 Deらによる最近の研究。 (2022) は、特徴空間の次元が高いにもかかわ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG, stat.ML | Neural Collapse Meets Differential Privacy: Curious Behaviors of NoisyGD with Near-perfect Representation Learning はコメントを受け付けていません