cs.CR」カテゴリーアーカイブ

Invisible Image Watermarks Are Provably Removable Using Generative AI

要約 目に見えない透かしは、所有者のみが検出できる隠されたメッセージを埋め込むこ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | Invisible Image Watermarks Are Provably Removable Using Generative AI はコメントを受け付けていません

ARQ: A Mixed-Precision Quantization Framework for Accurate and Certifiably Robust DNNs

要約 混合精度量子化は、限られたリソースのコンピューティング プラットフォーム上 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | ARQ: A Mixed-Precision Quantization Framework for Accurate and Certifiably Robust DNNs はコメントを受け付けていません

ProTransformer: Robustify Transformers via Plug-and-Play Paradigm

要約 近年、トランスフォーマーベースのアーキテクチャが機械学習のさまざまな分野を … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | ProTransformer: Robustify Transformers via Plug-and-Play Paradigm はコメントを受け付けていません

Breach By A Thousand Leaks: Unsafe Information Leakage in `Safe’ AI Responses

要約 Frontier 言語モデルには誤用やジェイルブレイクに対する脆弱性がある … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY | Breach By A Thousand Leaks: Unsafe Information Leakage in `Safe’ AI Responses はコメントを受け付けていません

Certified Robustness to Data Poisoning in Gradient-Based Training

要約 最新の機械学習パイプラインは大量の公開データを活用しているため、データの品 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Certified Robustness to Data Poisoning in Gradient-Based Training はコメントを受け付けていません

Auditing $f$-Differential Privacy in One Run

要約 実証的監査は、プライバシー保護アルゴリズムの実装における欠陥の一部を発見す … 続きを読む

カテゴリー: cs.CR, cs.LG | Auditing $f$-Differential Privacy in One Run はコメントを受け付けていません

Embedding-based classifiers can detect prompt injection attacks

要約 大規模言語モデル (LLM) は、その優れた生成機能により、あらゆる種類の … 続きを読む

カテゴリー: cs.CR, cs.LG | Embedding-based classifiers can detect prompt injection attacks はコメントを受け付けていません

CodeCloak: A Method for Evaluating and Mitigating Code Leakage by LLM Code Assistants

要約 LLM ベースのコード アシスタントは、開発者の間でますます人気が高まって … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG, cs.PL | CodeCloak: A Method for Evaluating and Mitigating Code Leakage by LLM Code Assistants はコメントを受け付けていません

Watch Out for Your Agents! Investigating Backdoor Threats to LLM-Based Agents

要約 大規模言語モデル (LLM) の急速な発展により、金融、ヘルスケア、ショッ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Watch Out for Your Agents! Investigating Backdoor Threats to LLM-Based Agents はコメントを受け付けていません

$\mathsf{OPA}$: One-shot Private Aggregation with Single Client Interaction and its Applications to Federated Learning

要約 私たちの取り組みは、特に多くのクライアントが存在するシナリオでは、通信ラウ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, I.2 | $\mathsf{OPA}$: One-shot Private Aggregation with Single Client Interaction and its Applications to Federated Learning はコメントを受け付けていません