cs.CR」カテゴリーアーカイブ

A Semantic Invariant Robust Watermark for Large Language Models

要約 大規模言語モデル (LLM) の透かしアルゴリズムは、LLM によって生成 … 続きを読む

カテゴリー: 68T50, cs.CL, cs.CR, I.2.7 | A Semantic Invariant Robust Watermark for Large Language Models はコメントを受け付けていません

PRSA: Prompt Reverse Stealing Attacks against Large Language Models

要約 Prompt は重要な知的財産として認識されており、大規模言語モデル (L … 続きを読む

カテゴリー: cs.CL, cs.CR | PRSA: Prompt Reverse Stealing Attacks against Large Language Models はコメントを受け付けていません

Watermark Stealing in Large Language Models

要約 LLM 透かしは、AI によって生成されたコンテンツを検出する有望な方法と … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Watermark Stealing in Large Language Models はコメントを受け付けていません

SoK: Exploring the Potential of Large Language Models for Improving Digital Forensic Investigation Efficiency

要約 デジタルフォレンジック分析が必要な事件が増えているため、法執行機関の迅速な … 続きを読む

カテゴリー: cs.AI, cs.CR | SoK: Exploring the Potential of Large Language Models for Improving Digital Forensic Investigation Efficiency はコメントを受け付けていません

Differentially Private Worst-group Risk Minimization

要約 $(\epsilon, \delta)$-差分プライバシー (DP) の下 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Differentially Private Worst-group Risk Minimization はコメントを受け付けていません

A Game-theoretic Framework for Privacy-preserving Federated Learning

要約 フェデレーテッド ラーニングでは、良性の参加者が協力してグローバル モデル … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.GT, cs.LG | A Game-theoretic Framework for Privacy-preserving Federated Learning はコメントを受け付けていません

Efficient local linearity regularization to overcome catastrophic overfitting

要約 シングルステップの敵対的トレーニング (AT) における壊滅的な過学習 ( … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ML | Efficient local linearity regularization to overcome catastrophic overfitting はコメントを受け付けていません

Killer Apps: Low-Speed, Large-Scale AI Weapons

要約 OpenAI、Meta、Anthropic などの組織による最先端の生成事 … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.LG, I.2.7 | Killer Apps: Low-Speed, Large-Scale AI Weapons はコメントを受け付けていません

Et Tu Certifications: Robustness Certificates Yield Better Adversarial Examples

要約 インスタンスの近隣に敵対的な例が存在しないことを保証する際、認証メカニズム … 続きを読む

カテゴリー: cs.CR, cs.LG, I.2.6 | Et Tu Certifications: Robustness Certificates Yield Better Adversarial Examples はコメントを受け付けていません

LLM-based Privacy Data Augmentation Guided by Knowledge Distillation with a Distribution Tutor for Medical Text Classification

要約 モデルのトレーニングに必要な十分なデータが常に公開されているとは限らないた … 続きを読む

カテゴリー: cs.CL, cs.CR | LLM-based Privacy Data Augmentation Guided by Knowledge Distillation with a Distribution Tutor for Medical Text Classification はコメントを受け付けていません