cs.CL」カテゴリーアーカイブ

OmniCaptioner: One Captioner to Rule Them All

要約 Omnicaptionerを提案します。これは、さまざまな視覚ドメインにわ … 続きを読む

カテゴリー: cs.CL, cs.CV | OmniCaptioner: One Captioner to Rule Them All はコメントを受け付けていません

Hogwild! Inference: Parallel LLM Generation via Concurrent Attention

要約 大規模な言語モデル(LLMS)は、高度な推論、長型のコンテンツ生成、および … 続きを読む

カテゴリー: cs.CL, cs.LG | Hogwild! Inference: Parallel LLM Generation via Concurrent Attention はコメントを受け付けていません

Confidence Regularized Masked Language Modeling using Text Length

要約 マスクされた言語モデリングは、言語表現を学習するために広く使用されている方 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Confidence Regularized Masked Language Modeling using Text Length はコメントを受け付けていません

Navigating the Rabbit Hole: Emergent Biases in LLM-Generated Attack Narratives Targeting Mental Health Groups

要約 大規模な言語モデル(LLM)は、特定のグループに対する不均衡なバイアスを示 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, cs.SI, J.4 | Navigating the Rabbit Hole: Emergent Biases in LLM-Generated Attack Narratives Targeting Mental Health Groups はコメントを受け付けていません

Large Language Models for Knowledge Graph Embedding: A Survey

要約 大規模な言語モデル(LLM)は、ワールドワイドウェブ上の多くの知識主導型ア … 続きを読む

カテゴリー: cs.AI, cs.CL | Large Language Models for Knowledge Graph Embedding: A Survey はコメントを受け付けていません

Recursive Training Loops in LLMs: How training data properties modulate distribution shift in generated data?

要約 大規模な言語モデル(LLM)は、インターネット上のコンテンツの作成にますま … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2.7 | Recursive Training Loops in LLMs: How training data properties modulate distribution shift in generated data? はコメントを受け付けていません

MMTEB: Massive Multilingual Text Embedding Benchmark

要約 テキストの埋め込みは通常、言語、ドメイン、およびタスクの多様性によって制約 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | MMTEB: Massive Multilingual Text Embedding Benchmark はコメントを受け付けていません

End-to-End Dialog Neural Coreference Resolution: Balancing Efficiency and Accuracy in Large-Scale Systems

要約 大規模な共同解像度は、自然言語処理に大きな課題を提示し、効率と精度のバラン … 続きを読む

カテゴリー: cs.CL | End-to-End Dialog Neural Coreference Resolution: Balancing Efficiency and Accuracy in Large-Scale Systems はコメントを受け付けていません

Leveraging Robust Optimization for LLM Alignment under Distribution Shifts

要約 大規模な言語モデル(LLMS)は、人間の価値に向かって出力を操作するための … 続きを読む

カテゴリー: cs.CL | Leveraging Robust Optimization for LLM Alignment under Distribution Shifts はコメントを受け付けていません

Enhancing Coreference Resolution with Pretrained Language Models: Bridging the Gap Between Syntax and Semantics

要約 大規模な言語モデルは、Coreference Resolutionを含むさ … 続きを読む

カテゴリー: cs.AI, cs.CL | Enhancing Coreference Resolution with Pretrained Language Models: Bridging the Gap Between Syntax and Semantics はコメントを受け付けていません