cs.CR」カテゴリーアーカイブ

Rethinking Machine Unlearning in Image Generation Models

要約 画像生成モデルの急増と広範なアプリケーションにより、データのプライバシーと … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV | Rethinking Machine Unlearning in Image Generation Models はコメントを受け付けていません

The Canary’s Echo: Auditing Privacy Risks of LLM-Generated Synthetic Text

要約 トレーニングサンプルに関する情報は、大規模な言語モデル(LLMS)によって … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | The Canary’s Echo: Auditing Privacy Risks of LLM-Generated Synthetic Text はコメントを受け付けていません

Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness

要約 データのプライバシーとセキュリティに対する懸念の高まりは、マシンの学習の重 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness はコメントを受け付けていません

Joint-GCG: Unified Gradient-Based Poisoning Attacks on Retrieval-Augmented Generation Systems

要約 回答を生成する前に外部コーパスから関連するドキュメントを取得することにより … 続きを読む

カテゴリー: cs.AI, cs.CR | Joint-GCG: Unified Gradient-Based Poisoning Attacks on Retrieval-Augmented Generation Systems はコメントを受け付けていません

A Cognac shot to forget bad memories: Corrective Unlearning in GNNs

要約 グラフニューラルネットワーク(GNNS)は、グラフデータ上のさまざまなML … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | A Cognac shot to forget bad memories: Corrective Unlearning in GNNs はコメントを受け付けていません

Why LLM Safety Guardrails Collapse After Fine-tuning: A Similarity Analysis Between Alignment and Fine-tuning Datasets

要約 大規模な言語モデル(LLMS)の最近の進歩は、特に下流の微調整を受けた場合 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Why LLM Safety Guardrails Collapse After Fine-tuning: A Similarity Analysis Between Alignment and Fine-tuning Datasets はコメントを受け付けていません

From Benign import Toxic: Jailbreaking the Language Model via Adversarial Metaphors

要約 現在の研究は、脱獄攻撃によって有害なコンテンツを生成する大規模な言語モデル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | From Benign import Toxic: Jailbreaking the Language Model via Adversarial Metaphors はコメントを受け付けていません

Towards Trustworthy Federated Learning with Untrusted Participants

要約 悪意のある参加者とデータのプライバシーに対する回復力は、信頼できる連合学習 … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Towards Trustworthy Federated Learning with Untrusted Participants はコメントを受け付けていません

TracLLM: A Generic Framework for Attributing Long Context LLMs

要約 長いコンテキストの大規模な言語モデル(LLM)は、RAG、エージェント、広 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | TracLLM: A Generic Framework for Attributing Long Context LLMs はコメントを受け付けていません

Keyed Chaotic Dynamics for Privacy-Preserving Neural Inference

要約 ニューラルネットワークによる推論は通常、生の入力データに対して行われるため … 続きを読む

カテゴリー: 37N25, 68T05, 94A60, cs.AI, cs.CR, D.4.6 | Keyed Chaotic Dynamics for Privacy-Preserving Neural Inference はコメントを受け付けていません