cs.CR」カテゴリーアーカイブ

The Fire Thief Is Also the Keeper: Balancing Usability and Privacy in Prompts

要約 オンライン チャットボットの急速な導入は、人工知能の大幅な進歩を表していま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | The Fire Thief Is Also the Keeper: Balancing Usability and Privacy in Prompts はコメントを受け付けていません

Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning

要約 大規模言語モデル (LLM) は、さまざまなドメインにわたる複雑なタスクに … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning はコメントを受け付けていません

PostMark: A Robust Blackbox Watermark for Large Language Models

要約 LLM で生成されたテキストを検出する最も効果的な手法は、モデルのデコード … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | PostMark: A Robust Blackbox Watermark for Large Language Models はコメントを受け付けていません

DREW : Towards Robust Data Provenance by Leveraging Error-Controlled Watermarking

要約 データの出所を特定することは、データ所有権の保護、メディアフォレンジック、 … 続きを読む

カテゴリー: cs.CR, cs.CV | DREW : Towards Robust Data Provenance by Leveraging Error-Controlled Watermarking はコメントを受け付けていません

On Differentially Private Subspace Estimation in a Distribution-Free Setting

要約 プライベート データ分析は、コストの増加につながる、次元の呪いとして知られ … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG | On Differentially Private Subspace Estimation in a Distribution-Free Setting はコメントを受け付けていません

Leveraging Generative Models for Covert Messaging: Challenges and Tradeoffs for ‘Dead-Drop’ Deployments

要約 人間が作成したコンテンツの最先端の生成モデルは、ステガノグラフィー通信への … 続きを読む

カテゴリー: cs.CR, cs.LG | Leveraging Generative Models for Covert Messaging: Challenges and Tradeoffs for ‘Dead-Drop’ Deployments はコメントを受け付けていません

Jailbreaking Leading Safety-Aligned LLMs with Simple Adaptive Attacks

要約 私たちは、安全性を重視した最新の LLM であっても、単純な適応ジェイルブ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ML | Jailbreaking Leading Safety-Aligned LLMs with Simple Adaptive Attacks はコメントを受け付けていません

Extracting Training Data from Unconditional Diffusion Models

要約 拡散確率モデル (DPM) が生成人工知能 (AI) の主流モデルとして採 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Extracting Training Data from Unconditional Diffusion Models はコメントを受け付けていません

Adversarial Attacks on Multimodal Agents

要約 現在、ビジョン対応言語モデル (VLM) は、実際の環境でアクションを実行 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.CV, cs.LG | Adversarial Attacks on Multimodal Agents はコメントを受け付けていません

Knowledge-to-Jailbreak: One Knowledge Point Worth One Attack

要約 大規模言語モデル (LLM) はさまざまなドメインにますます適用されており … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Knowledge-to-Jailbreak: One Knowledge Point Worth One Attack はコメントを受け付けていません