cs.CR」カテゴリーアーカイブ

Self-Evaluation as a Defense Against Adversarial Attacks on LLMs

要約 自己評価を利用した LLM への敵対的攻撃に対する防御策を紹介します。 私 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Self-Evaluation as a Defense Against Adversarial Attacks on LLMs はコメントを受け付けていません

Best-of-Venom: Attacking RLHF by Injecting Poisoned Preference Data

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、言語モデル ( … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Best-of-Venom: Attacking RLHF by Injecting Poisoned Preference Data はコメントを受け付けていません

Practical Attacks against Black-box Code Completion Engines

要約 大規模な言語モデルを利用した最新のコード補完エンジンは、周囲のコンテキスト … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.PL, cs.SE | Practical Attacks against Black-box Code Completion Engines はコメントを受け付けていません

Command-line Obfuscation Detection using Small Language Models

要約 検出を避けるために、攻撃者はコマンドラインの難読化を使用することがよくあり … 続きを読む

カテゴリー: cs.CR, cs.LG | Command-line Obfuscation Detection using Small Language Models はコメントを受け付けていません

Detection of Compromised Functions in a Serverless Cloud Environment

要約 サーバーレス コンピューティングは、サーバーレス機能を中核とする新たなクラ … 続きを読む

カテゴリー: cs.CR, cs.LG | Detection of Compromised Functions in a Serverless Cloud Environment はコメントを受け付けていません

Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models

要約 大規模言語モデル (LLM) パラメータの大幅な増加により、プロンプト ( … 続きを読む

カテゴリー: cs.CL, cs.CR | Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models はコメントを受け付けていません

Threats, Attacks, and Defenses in Machine Unlearning: A Survey

要約 Machine Unlearning (MU) は、トレーニング済みの機械 … 続きを読む

カテゴリー: cs.AI, cs.CR | Threats, Attacks, and Defenses in Machine Unlearning: A Survey はコメントを受け付けていません

Can Reinforcement Learning Unlock the Hidden Dangers in Aligned Large Language Models?

要約 大規模言語モデル (LLM) は、自然言語タスクにおいて優れた機能を実証し … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Can Reinforcement Learning Unlock the Hidden Dangers in Aligned Large Language Models? はコメントを受け付けていません

CERT-ED: Certifiably Robust Text Classification for Edit Distance

要約 AIの日常生活への統合が進む中、推論時間攻撃に対するシステムの頑健性を保証 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | CERT-ED: Certifiably Robust Text Classification for Edit Distance はコメントを受け付けていません

Jailbreaking Text-to-Image Models with LLM-Based Agents

要約 近年の進歩により、大規模言語モデル(LLM)を搭載した自律型エージェントを … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Jailbreaking Text-to-Image Models with LLM-Based Agents はコメントを受け付けていません