cs.CR」カテゴリーアーカイブ

OverThink: Slowdown Attacks on Reasoning LLMs

要約 LLMS-We Forceモデルの推論に依存しているアプリケーションのオー … 続きを読む

カテゴリー: cs.CR, cs.LG | OverThink: Slowdown Attacks on Reasoning LLMs はコメントを受け付けていません

OVERTHINKING: Slowdown Attacks on Reasoning LLMs

要約 我々は推論LLMに依存するアプリケーションのオーバーヘッドを増加させる & … 続きを読む

カテゴリー: cs.CR, cs.LG | OVERTHINKING: Slowdown Attacks on Reasoning LLMs はコメントを受け付けていません

Is poisoning a real threat to LLM alignment? Maybe more so than you think

要約 人間のフィードバックを伴う強化学習(RLHF)の最近の進歩は、大規模言語モ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Is poisoning a real threat to LLM alignment? Maybe more so than you think はコメントを受け付けていません

Is My Data in Your Retrieval Database? Membership Inference Attacks Against Retrieval Augmented Generation

要約 検索拡張世代(RAG)システムは、自然言語処理において大きな可能性を示して … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, I.2 | Is My Data in Your Retrieval Database? Membership Inference Attacks Against Retrieval Augmented Generation はコメントを受け付けていません

TrojanDec: Data-free Detection of Trojan Inputs in Self-supervised Learning

要約 自己教師付き学習によって事前に訓練された画像エンコーダは、様々な下流タスク … 続きを読む

カテゴリー: cs.AI, cs.CR | TrojanDec: Data-free Detection of Trojan Inputs in Self-supervised Learning はコメントを受け付けていません

JailbreakEval: An Integrated Toolkit for Evaluating Jailbreak Attempts Against Large Language Models

要約 脱獄攻撃はLarge Language Models (LLM)に有害な応 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | JailbreakEval: An Integrated Toolkit for Evaluating Jailbreak Attempts Against Large Language Models はコメントを受け付けていません

Medical Multimodal Model Stealing Attacks via Adversarial Domain Alignment

要約 医療用マルチモーダル大規模言語モデル(MLLM)は医療システムの重要な一部 … 続きを読む

カテゴリー: cs.AI, cs.CR | Medical Multimodal Model Stealing Attacks via Adversarial Domain Alignment はコメントを受け付けていません

UFID: A Unified Framework for Input-level Backdoor Detection on Diffusion Models

要約 拡散モデルはバックドア攻撃に対して脆弱であり、悪意のある攻撃者は学習段階で … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | UFID: A Unified Framework for Input-level Backdoor Detection on Diffusion Models はコメントを受け付けていません

The TIP of the Iceberg: Revealing a Hidden Class of Task-in-Prompt Adversarial Attacks on LLMs

要約 我々は、LLMに対する脱獄敵対的攻撃の新しいクラス、タスク・イン・プロンプ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | The TIP of the Iceberg: Revealing a Hidden Class of Task-in-Prompt Adversarial Attacks on LLMs はコメントを受け付けていません

BLens: Contrastive Captioning of Binary Functions using Ensemble Embedding

要約 関数名は人間のリバースエンジニアにとって大きな助けとなるため、ストリップさ … 続きを読む

カテゴリー: cs.CR, cs.LG | BLens: Contrastive Captioning of Binary Functions using Ensemble Embedding はコメントを受け付けていません