cs.CR」カテゴリーアーカイブ

When LLMs Meet Cybersecurity: A Systematic Literature Review

要約 大規模言語モデル(LLM)の急速な進歩は、日々進化する脅威の状況と革新的な … 続きを読む

カテゴリー: cs.AI, cs.CR | When LLMs Meet Cybersecurity: A Systematic Literature Review はコメントを受け付けていません

Can LLMs Deeply Detect Complex Malicious Queries? A Framework for Jailbreaking via Obfuscating Intent

要約 このアプローチは、LLMに内蔵されたコンテンツセキュリティ対策を回避し、制 … 続きを読む

カテゴリー: cs.AI, cs.CR | Can LLMs Deeply Detect Complex Malicious Queries? A Framework for Jailbreaking via Obfuscating Intent はコメントを受け付けていません

UnsafeBench: Benchmarking Image Safety Classifiers on Real-World and AI-Generated Images

要約 画像安全性分類器は、オンライン上の安全でない画像(暴力、憎悪に満ちた暴言な … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.SI | UnsafeBench: Benchmarking Image Safety Classifiers on Real-World and AI-Generated Images はコメントを受け付けていません

Privately Aligning Language Models with Reinforcement Learning

要約 事前学習とユーザ展開の間に位置する大規模言語モデル(LLM)のアライメント … 続きを読む

カテゴリー: cs.CR, cs.LG | Privately Aligning Language Models with Reinforcement Learning はコメントを受け付けていません

Causal Discovery Under Local Privacy

要約 差分プライバシーは、データセット内のデータ提供者の機密情報を保護するために … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ME | Causal Discovery Under Local Privacy はコメントを受け付けていません

Impact of Architectural Modifications on Deep Learning Adversarial Robustness

要約 ディープラーニングの急速な進歩により、自動運転車、ドローン、ロボット、監視 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Impact of Architectural Modifications on Deep Learning Adversarial Robustness はコメントを受け付けていません

From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings

要約 ディープラーニング(DL)は、安全性やセキュリティが重要なアプリケーション … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings はコメントを受け付けていません

On the Learnability of Watermarks for Language Models

要約 言語モデル出力の透かしを使用すると、モデルで生成されたテキストの統計的検出 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | On the Learnability of Watermarks for Language Models はコメントを受け付けていません

Boosting Jailbreak Attack with Momentum

要約 大規模言語モデル (LLM) は、さまざまなタスクにわたって目覚ましい成功 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, math.OC | Boosting Jailbreak Attack with Momentum はコメントを受け付けていません

Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders

要約 学習不可能なサンプル (UE) は、正しくラベル付けされたトレーニング サ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders はコメントを受け付けていません