cs.CR」カテゴリーアーカイブ

Differentially Private Prototypes for Imbalanced Transfer Learning

要約 機械学習 (ML) モデルは、トレーニング データセットから個人情報を漏洩 … 続きを読む

カテゴリー: 68T01, cs.CR, cs.LG | コメントする

Comprehensive Assessment of Jailbreak Attacks Against LLMs

要約 脱獄攻撃は、LLM の保護手段を回避することを目的としています。 研究者た … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | コメントする

When Backdoors Speak: Understanding LLM Backdoor Attacks Through Model-Generated Explanations

要約 大規模言語モデル (LLM) はバックドア攻撃に対して脆弱であることが知ら … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

Can LLM Prompting Serve as a Proxy for Static Analysis in Vulnerability Detection

要約 大規模言語モデル (LLM) は、目覚ましい成功を収めているにもかかわらず … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.SE | コメントする

Optimal Bounds for Private Minimum Spanning Trees via Input Perturbation

要約 近似最小スパニング ツリー (MST) を非公開で公開する問題を研究します … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG | コメントする

The Correlated Gaussian Sparse Histogram Mechanism

要約 $(\varepsilon, \delta)$-差分プライバシーのもとでス … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG | コメントする

SoK: Decentralized AI (DeAI)

要約 人工知能 (AI) の一元化は、単一障害点、固有のバイアス、データ プライ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

From Allies to Adversaries: Manipulating LLM Tool-Calling through Adversarial Injection

要約 ツール呼び出しは、外部ツールを統合することによって大規模言語モデル (LL … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

AdvPrefix: An Objective for Nuanced LLM Jailbreaks

要約 大規模言語モデル (LLM) に対するジェイルブレイク攻撃の多くは、モデル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | コメントする

Robust image classification with multi-modal large language models

要約 ディープ ニューラル ネットワークは、敵対的な例、つまり、モデルが高い信頼 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | コメントする