cs.CL」カテゴリーアーカイブ

SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation

要約 大規模言語モデル (LLM) は機械学習を変革しましたが、著作権を侵害する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation はコメントを受け付けていません

Differentiating Choices via Commonality for Multiple-Choice Question Answering

要約 すべての選択肢が質問に関連しており、意味的に類似している場合、多肢選択質問 … 続きを読む

カテゴリー: cs.AI, cs.CL | Differentiating Choices via Commonality for Multiple-Choice Question Answering はコメントを受け付けていません

Inference-Time Selective Debiasing

要約 私たちは選択的バイアス軽減を提案します。これは、モデルの再トレーニングが法 … 続きを読む

カテゴリー: cs.AI, cs.CL | Inference-Time Selective Debiasing はコメントを受け付けていません

Large Language Models are Good Attackers: Efficient and Stealthy Textual Backdoor Attacks

要約 自然言語処理 (NLP) 分野の急速な進歩に伴い、トレーニング データの需 … 続きを読む

カテゴリー: cs.CL, cs.CR | Large Language Models are Good Attackers: Efficient and Stealthy Textual Backdoor Attacks はコメントを受け付けていません

Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models

要約 大規模言語モデル (LLM) に対する主流のバックドア攻撃は通常、入力イン … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Watch Out for Your Guidance on Generation! Exploring Conditional Backdoor Attacks against Large Language Models はコメントを受け付けていません

Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions

要約 大規模言語モデル (LLM) によって生成される応答には、個人や組織からの … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Tracing Privacy Leakage of Language Models to Training Data via Adjusted Influence Functions はコメントを受け付けていません

What Makes and Breaks Safety Fine-tuning? A Mechanistic Study

要約 安全性の微調整は、大規模言語モデル (LLM) を人間の好みに合わせて安全 … 続きを読む

カテゴリー: cs.CL, cs.LG | What Makes and Breaks Safety Fine-tuning? A Mechanistic Study はコメントを受け付けていません

Verifiable by Design: Aligning Language Models to Quote from Pre-Training Data

要約 Fluent 世代の大規模言語モデル (LLM) を信頼するには、人間が信 … 続きを読む

カテゴリー: cs.CL | Verifiable by Design: Aligning Language Models to Quote from Pre-Training Data はコメントを受け付けていません

Against All Odds: Overcoming Typology, Script, and Language Confusion in Multilingual Embedding Inversion Attacks

要約 大規模言語モデル (LLM) は、敵対的攻撃、バックドア攻撃、埋め込み反転 … 続きを読む

カテゴリー: cs.CL, cs.CR | Against All Odds: Overcoming Typology, Script, and Language Confusion in Multilingual Embedding Inversion Attacks はコメントを受け付けていません

Leveraging Fine-Tuned Retrieval-Augmented Generation with Long-Context Support: For 3GPP Standards

要約 最近の研究では、大規模言語モデル (LLM) が電気通信の技術標準に苦戦し … 続きを読む

カテゴリー: cs.CL, cs.NI | Leveraging Fine-Tuned Retrieval-Augmented Generation with Long-Context Support: For 3GPP Standards はコメントを受け付けていません