cs.CR」カテゴリーアーカイブ

Privately Aligning Language Models with Reinforcement Learning

要約 事前学習とユーザ展開の間に位置する大規模言語モデル(LLM)のアライメント … 続きを読む

カテゴリー: cs.CR, cs.LG | Privately Aligning Language Models with Reinforcement Learning はコメントを受け付けていません

Causal Discovery Under Local Privacy

要約 差分プライバシーは、データセット内のデータ提供者の機密情報を保護するために … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ME | Causal Discovery Under Local Privacy はコメントを受け付けていません

Impact of Architectural Modifications on Deep Learning Adversarial Robustness

要約 ディープラーニングの急速な進歩により、自動運転車、ドローン、ロボット、監視 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Impact of Architectural Modifications on Deep Learning Adversarial Robustness はコメントを受け付けていません

From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings

要約 ディープラーニング(DL)は、安全性やセキュリティが重要なアプリケーション … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings はコメントを受け付けていません

On the Learnability of Watermarks for Language Models

要約 言語モデル出力の透かしを使用すると、モデルで生成されたテキストの統計的検出 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | On the Learnability of Watermarks for Language Models はコメントを受け付けていません

Boosting Jailbreak Attack with Momentum

要約 大規模言語モデル (LLM) は、さまざまなタスクにわたって目覚ましい成功 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, math.OC | Boosting Jailbreak Attack with Momentum はコメントを受け付けていません

Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders

要約 学習不可能なサンプル (UE) は、正しくラベル付けされたトレーニング サ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders はコメントを受け付けていません

Navigating Heterogeneity and Privacy in One-Shot Federated Learning with Diffusion Models

要約 フェデレーション ラーニング (FL) を使用すると、データ プライバシー … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Navigating Heterogeneity and Privacy in One-Shot Federated Learning with Diffusion Models はコメントを受け付けていません

Why You Should Not Trust Interpretations in Machine Learning: Adversarial Attacks on Partial Dependence Plots

要約 業界全体での人工知能 (AI) の導入により、意思決定のための複雑なブラッ … 続きを読む

カテゴリー: cs.CR, cs.LG, stat.AP, stat.ML | Why You Should Not Trust Interpretations in Machine Learning: Adversarial Attacks on Partial Dependence Plots はコメントを受け付けていません

Graphene: Infrastructure Security Posture Analysis with AI-generated Attack Graphs

要約 サイバーセキュリティ侵害の蔓延は、ネットワーク インフラストラクチャの進歩 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Graphene: Infrastructure Security Posture Analysis with AI-generated Attack Graphs はコメントを受け付けていません