cs.CR」カテゴリーアーカイブ

Breaking Distortion-free Watermarks in Large Language Models

要約 近年、LLMの透かしは、多くの現実世界ドメインで有望なアプリケーションを備 … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

TimberStrike: Dataset Reconstruction Attack Revealing Privacy Leakage in Federated Tree-Based Systems

要約 連合学習は、一元化された機械学習のプライバシー指向の代替品として浮上し、直 … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | コメントする

PRSA: Prompt Stealing Attacks against Real-World Prompt Services

要約 最近、大規模な言語モデル(LLM)は、その並外れた能力について広範囲の注目 … 続きを読む

カテゴリー: cs.CL, cs.CR | コメントする

Chain-of-Code Collapse: Reasoning Failures in LLMs via Adversarial Prompting in Code Generation

要約 大規模な言語モデル(LLMS)は、コード生成、数学的問題解決、アルゴリズム … 続きを読む

カテゴリー: cs.CL, cs.CR | コメントする

Debiasing Watermarks for Large Language Models via Maximal Coupling

要約 言語モデルの透かしは、人間と機械で生成されたテキストを区別し、デジタル通信 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG, stat.ME, stat.ML | コメントする

Improving LLM Safety Alignment with Dual-Objective Optimization

要約 大規模な言語モデル(LLM)の既存のトレーニング時間安全アライメント手法は … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

Monitoring Decomposition Attacks in LLMs with Lightweight Sequential Monitors

要約 現在のLLM安全防御は、拒否を回避する悪意のある目標が良性サブタスクに分解 … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

ChineseHarm-Bench: A Chinese Harmful Content Detection Benchmark

要約 大規模な言語モデル(LLM)は、自動化された有害なコンテンツ検出タスクにま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.IR, cs.LG | コメントする

SoK: Watermarking for AI-Generated Content

要約 生成AI(genai)技術の出力が品質が向上するにつれて、それらを人間が作 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Unsourced Adversarial CAPTCHA: A Bi-Phase Adversarial CAPTCHA Framework

要約 深い学習の急速な進歩により、従来のキャプチャスキームは、深いニューラルネッ … 続きを読む

カテゴリー: cs.CR, cs.CV | コメントする