cs.CL」カテゴリーアーカイブ

Phantom: General Trigger Attacks on Retrieval Augmented Language Generation

要約 検索拡張生成 (RAG) は、最も関連性の高い知識ソースへの応答を固定、適 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Phantom: General Trigger Attacks on Retrieval Augmented Language Generation はコメントを受け付けていません

Mitigate Position Bias in Large Language Models via Scaling a Single Dimension

要約 大規模言語モデル (LLM) は、その優れた一般化機能と堅牢な生成機能によ … 続きを読む

カテゴリー: cs.CL, cs.LG | Mitigate Position Bias in Large Language Models via Scaling a Single Dimension はコメントを受け付けていません

Subgraph-Aware Training of Language Models for Knowledge Graph Completion Using Structure-Aware Contrastive Learning

要約 最近、事前トレーニング済み言語モデル (PLM) を微調整すると、ナレッジ … 続きを読む

カテゴリー: cs.CL | Subgraph-Aware Training of Language Models for Knowledge Graph Completion Using Structure-Aware Contrastive Learning はコメントを受け付けていません

GOVERN: Gradient Orientation Vote Ensemble for Multi-Teacher Reinforced Distillation

要約 事前トレーニングされた言語モデルは質問応答システムの不可欠なコンポーネント … 続きを読む

カテゴリー: cs.CL, cs.IR | GOVERN: Gradient Orientation Vote Ensemble for Multi-Teacher Reinforced Distillation はコメントを受け付けていません

THaMES: An End-to-End Tool for Hallucination Mitigation and Evaluation in Large Language Models

要約 事実に誤りのあるコンテンツの生成である幻覚は、大規模言語モデル (LLM) … 続きを読む

カテゴリー: cs.CL | THaMES: An End-to-End Tool for Hallucination Mitigation and Evaluation in Large Language Models はコメントを受け付けていません

Personas with Attitudes: Controlling LLMs for Diverse Data Annotation

要約 大規模言語モデル (LLM) をパーソナライズすることで、データ アノテー … 続きを読む

カテゴリー: cs.CL, cs.HC | Personas with Attitudes: Controlling LLMs for Diverse Data Annotation はコメントを受け付けていません

TAMS: Translation-Assisted Morphological Segmentation

要約 標準形態素セグメンテーションは、単語をその構成要素である形態素の標準 (基 … 続きを読む

カテゴリー: cs.CL | TAMS: Translation-Assisted Morphological Segmentation はコメントを受け付けていません

Layer-wise Importance Matters: Less Memory for Better Performance in Parameter-efficient Fine-tuning of Large Language Models

要約 パラメータ効率の良い微調整 (PEFT) 手法は、主にメモリと計算オーバー … 続きを読む

カテゴリー: cs.CL, cs.LG | Layer-wise Importance Matters: Less Memory for Better Performance in Parameter-efficient Fine-tuning of Large Language Models はコメントを受け付けていません

Self-Data Distillation for Recovering Quality in Pruned Large Language Models

要約 大規模な言語モデルにより、自然言語処理は大幅に進歩しましたが、その展開には … 続きを読む

カテゴリー: cs.CL, cs.LG | Self-Data Distillation for Recovering Quality in Pruned Large Language Models はコメントを受け付けていません

NesTools: A Dataset for Evaluating Nested Tool Learning Abilities of Large Language Models

要約 大規模言語モデル (LLM) とツール学習を組み合わせることで、現実世界の … 続きを読む

カテゴリー: cs.CL | NesTools: A Dataset for Evaluating Nested Tool Learning Abilities of Large Language Models はコメントを受け付けていません