cs.CR」カテゴリーアーカイブ

Revisiting Adversarial Perception Attacks and Defense Methods on Autonomous Driving Systems

要約 自律運転システム(ADS)は、敵対的な攻撃に対して脆弱なままである深い学習 … 続きを読む

カテゴリー: cs.CR, cs.RO | Revisiting Adversarial Perception Attacks and Defense Methods on Autonomous Driving Systems はコメントを受け付けていません

Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning

要約 大規模な言語モデル(LLMS)は、ドメイン固有の知識で応答を補うために、検 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.IR, cs.LG | Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning はコメントを受け付けていません

Gaming Tool Preferences in Agentic LLMs

要約 大規模な言語モデル(LLMS)は、モデルコンテキストプロトコル(MCP)の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Gaming Tool Preferences in Agentic LLMs はコメントを受け付けていません

Forensics Adapter: Unleashing CLIP for Generalizable Face Forgery Detection

要約 Clipを効果的で一般化可能なFace Forgery Detectorに … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Forensics Adapter: Unleashing CLIP for Generalizable Face Forgery Detection はコメントを受け付けていません

CAIN: Hijacking LLM-Humans Conversations via a Two-Stage Malicious System Prompt Generation and Refining Framework

要約 大規模な言語モデル(LLM)は多くのアプリケーションを進めてきましたが、敵 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | CAIN: Hijacking LLM-Humans Conversations via a Two-Stage Malicious System Prompt Generation and Refining Framework はコメントを受け付けていません

Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models

要約 大規模な言語モデル(LLMS)には、リアルタイムWeb検索の機能がますます … 続きを読む

カテゴリー: cs.AI, cs.CR | Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models はコメントを受け付けていません

Backdoor Cleaning without External Guidance in MLLM Fine-tuning

要約 マルチモーダル大手言語モデル(MLLMS)は、ユーザーがサビされたデータセ … 続きを読む

カテゴリー: cs.CR, cs.CV | Backdoor Cleaning without External Guidance in MLLM Fine-tuning はコメントを受け付けていません

Alignment Under Pressure: The Case for Informed Adversaries When Evaluating LLM Defenses

要約 大規模な言語モデル(LLMS)は、チャットボットからエージェントシステムに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Alignment Under Pressure: The Case for Informed Adversaries When Evaluating LLM Defenses はコメントを受け付けていません

Scalable Defense against In-the-wild Jailbreaking Attacks with Safety Context Retrieval

要約 大規模な言語モデル(LLM)は、侵入攻撃に対して脆弱であることが知られてお … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Scalable Defense against In-the-wild Jailbreaking Attacks with Safety Context Retrieval はコメントを受け付けていません

An In-Depth Investigation of Data Collection in LLM App Ecosystems

要約 LLMアプリ(ツール)エコシステムは急速に進化して、広範なユーザーデータ収 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY, cs.LG | An In-Depth Investigation of Data Collection in LLM App Ecosystems はコメントを受け付けていません