cs.CR」カテゴリーアーカイブ

Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence

要約 ブラックボックス敵対的攻撃は、機械学習モデルを破壊する強力な可能性を示して … 続きを読む

カテゴリー: cs.CR, cs.LG | Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence はコメントを受け付けていません

Waterfall: Framework for Robust and Scalable Text Watermarking

要約 特に、大規模言語モデル(LLM)による言い換えや、著作権で保護されたテキス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Waterfall: Framework for Robust and Scalable Text Watermarking はコメントを受け付けていません

An AI Architecture with the Capability to Classify and Explain Hardware Trojans

要約 機械学習(ML)技術に基づくハードウェア型トロイの木馬検知手法は、主に疑わ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | An AI Architecture with the Capability to Classify and Explain Hardware Trojans はコメントを受け付けていません

Artwork Protection Against Neural Style Transfer Using Locally Adaptive Adversarial Color Attack

要約 ニューラル・スタイル・トランスファー(NST)は、ある画像のスタイルと別の … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG, eess.IV | Artwork Protection Against Neural Style Transfer Using Locally Adaptive Adversarial Color Attack はコメントを受け付けていません

Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation

要約 差分プライバシ分散平均推定(DP-DME)は、プライバシを保護する連合学習 … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation はコメントを受け付けていません

Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning

要約 大規模言語モデル(LLM)は、多様な領域にわたる複雑なタスクに取り組むため … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning はコメントを受け付けていません

SOS! Soft Prompt Attack Against Open-Source Large Language Models

要約 オープンソースの大規模言語モデル(LLM)は、カスタマイズや微調整が可能で … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | SOS! Soft Prompt Attack Against Open-Source Large Language Models はコメントを受け付けていません

Self-Evaluation as a Defense Against Adversarial Attacks on LLMs

要約 LLMがデリケートで人間と接する場面で導入される場合、安全でない、偏った、 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Self-Evaluation as a Defense Against Adversarial Attacks on LLMs はコメントを受け付けていません

Protecting Privacy in Classifiers by Token Manipulation

要約 言語モデルをリモートサービスとして使用することは、信頼できないプロバイダー … 続きを読む

カテゴリー: cs.CL, cs.CR | Protecting Privacy in Classifiers by Token Manipulation はコメントを受け付けていません

Revisiting the Performance of Deep Learning-Based Vulnerability Detection on Realistic Datasets

要約 ソフトウェアの脆弱性が日常的なソフトウェアシステムに与える影響は大きい。脆 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, cs.SE, I.2 | Revisiting the Performance of Deep Learning-Based Vulnerability Detection on Realistic Datasets はコメントを受け付けていません