cs.CR」カテゴリーアーカイブ

Why LLM Safety Guardrails Collapse After Fine-tuning: A Similarity Analysis Between Alignment and Fine-tuning Datasets

要約 大規模な言語モデル(LLMS)の最近の進歩は、特に下流の微調整を受けた場合 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

From Benign import Toxic: Jailbreaking the Language Model via Adversarial Metaphors

要約 現在の研究は、脱獄攻撃によって有害なコンテンツを生成する大規模な言語モデル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

Towards Trustworthy Federated Learning with Untrusted Participants

要約 悪意のある参加者とデータのプライバシーに対する回復力は、信頼できる連合学習 … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | コメントする

TracLLM: A Generic Framework for Attributing Long Context LLMs

要約 長いコンテキストの大規模な言語モデル(LLM)は、RAG、エージェント、広 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Keyed Chaotic Dynamics for Privacy-Preserving Neural Inference

要約 ニューラルネットワークによる推論は通常、生の入力データに対して行われるため … 続きを読む

カテゴリー: 37N25, 68T05, 94A60, cs.AI, cs.CR, D.4.6 | コメントする

Unveiling Privacy Risks in LLM Agent Memory

要約 大規模言語モデル(LLM)エージェントは、実世界の様々なアプリケーションで … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

ChainMarks: Securing DNN Watermark with Cryptographic Chain

要約 ディープニューラルネットワーク(DNN)モデルの普及に伴い、モデル所有者の … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

Chain-of-Jailbreak Attack for Image Generation Models via Editing Step by Step

要約 Stable Diffusion や DALL-E 3 のようなテキストベ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV, cs.MM | コメントする

Mind the Gap: A Practical Attack on GGUF Quantization

要約 フロンティアLLMのサイズが増加すると、トレーニング後の量子化がメモリ効率 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Fact-Checking of AI-Generated Reports

要約 生成人工知能(AI)の進歩により、放射線画像の予備読み取りのために現実的に … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, eess.IV | コメントする