cs.CR」カテゴリーアーカイブ

TuBA: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning

要約 英語中心の大規模言語モデル (LLM) に対するバックドア攻撃の影響は広く … 続きを読む

カテゴリー: cs.CL, cs.CR | TuBA: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning はコメントを受け付けていません

Vicious Classifiers: Assessing Inference-time Data Reconstruction Risk in Edge Computing

要約 エッジ コンピューティング パラダイムにおけるプライバシー保護推論では、機 … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | Vicious Classifiers: Assessing Inference-time Data Reconstruction Risk in Edge Computing はコメントを受け付けていません

Obliviate: Neutralizing Task-agnostic Backdoors within the Parameter-efficient Fine-tuning Paradigm

要約 パラメーター効率の良い微調整 (PEFT) は、大規模な言語モデルの主要な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Obliviate: Neutralizing Task-agnostic Backdoors within the Parameter-efficient Fine-tuning Paradigm はコメントを受け付けていません

Multi-Designated Detector Watermarking for Language Models

要約 この論文では、大規模言語モデル (LLM) に対する \emph{複数指定 … 続きを読む

カテゴリー: cs.AI, cs.CR | Multi-Designated Detector Watermarking for Language Models はコメントを受け付けていません

Universal Vulnerabilities in Large Language Models: Backdoor Attacks for In-context Learning

要約 事前トレーニングと微調整の間のギャップを埋めるパラダイムであるインコンテキ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Universal Vulnerabilities in Large Language Models: Backdoor Attacks for In-context Learning はコメントを受け付けていません

Backdoor Attacks for LLMs with Weak-To-Strong Knowledge Distillation

要約 大規模言語モデル (LLM) は、その優れた機能により広く適用されているに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Backdoor Attacks for LLMs with Weak-To-Strong Knowledge Distillation はコメントを受け付けていません

The Use of Large Language Models (LLM) for Cyber Threat Intelligence (CTI) in Cybercrime Forums

要約 大規模言語モデル (LLM) を使用して、サイバー犯罪フォーラムからのサイ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | The Use of Large Language Models (LLM) for Cyber Threat Intelligence (CTI) in Cybercrime Forums はコメントを受け付けていません

Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity

要約 言語モデルが ASCII アートを解釈できないことを利用した、新しい敵対的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity はコメントを受け付けていません

Fine-Tuning Personalization in Federated Learning to Mitigate Adversarial Clients

要約 フェデレーテッド ラーニング (FL) は、データをローカルに保ちながら、 … 続きを読む

カテゴリー: cs.CR, cs.LG | Fine-Tuning Personalization in Federated Learning to Mitigate Adversarial Clients はコメントを受け付けていません

Privacy in Large Language Models: Attacks, Defenses and Future Directions

要約 大規模言語モデル (LLM) の進歩により、さまざまな下流の NLP タス … 続きを読む

カテゴリー: cs.CL, cs.CR | Privacy in Large Language Models: Attacks, Defenses and Future Directions はコメントを受け付けていません