cs.CL」カテゴリーアーカイブ

MALAMUTE: A Multilingual, Highly-granular, Template-free, Education-based Probing Dataset

要約 言語モデル (LM) は、さまざまな広範な領域で優れています。 ただし、現 … 続きを読む

カテゴリー: cs.CL | MALAMUTE: A Multilingual, Highly-granular, Template-free, Education-based Probing Dataset はコメントを受け付けていません

Citation Amnesia: On The Recency Bias of NLP and Other Academic Fields

要約 この研究では、43 年間 (1980 ~ 2023 年) にわたる 20 … 続きを読む

カテゴリー: cs.CL, cs.DL | Citation Amnesia: On The Recency Bias of NLP and Other Academic Fields はコメントを受け付けていません

Familiarity: Better Evaluation of Zero-Shot Named Entity Recognition by Quantifying Label Shifts in Synthetic Training Data

要約 ゼロショット固有表現認識 (NER) は、トレーニング例なしで特定のタイプ … 続きを読む

カテゴリー: cs.CL | Familiarity: Better Evaluation of Zero-Shot Named Entity Recognition by Quantifying Label Shifts in Synthetic Training Data はコメントを受け付けていません

ASLoRA: Adaptive Sharing Low-Rank Adaptation Across Layers

要約 大規模言語モデル (LLM) のサイズが大きくなるにつれて、従来の完全な微 … 続きを読む

カテゴリー: cs.CL | ASLoRA: Adaptive Sharing Low-Rank Adaptation Across Layers はコメントを受け付けていません

TACOMORE: Leveraging the Potential of LLMs in Corpus-based Discourse Analysis with Prompt Engineering

要約 自動化された定性分析を実行する LLM の能力は、コーパス言語学者によって … 続きを読む

カテゴリー: cs.CL | TACOMORE: Leveraging the Potential of LLMs in Corpus-based Discourse Analysis with Prompt Engineering はコメントを受け付けていません

Bridging Sequence-Structure Alignment in RNA Foundation Models

要約 RNA 配列と基礎モデル (FM) の構造の間のアライメントは、まだ徹底的 … 続きを読む

カテゴリー: cs.CL, q-bio.GN | Bridging Sequence-Structure Alignment in RNA Foundation Models はコメントを受け付けていません

Retrieval-Augmented Semantic Parsing: Using Large Language Models to Improve Generalization

要約 モデルはヒューリスティックに依存することが多く、目に見えない概念の処理に苦 … 続きを読む

カテゴリー: cs.CL | Retrieval-Augmented Semantic Parsing: Using Large Language Models to Improve Generalization はコメントを受け付けていません

Linguistic Minimal Pairs Elicit Linguistic Similarity in Large Language Models

要約 言語最小ペアを利用して大規模言語モデル (LLM) の内部言語表現を調査す … 続きを読む

カテゴリー: cs.CL | Linguistic Minimal Pairs Elicit Linguistic Similarity in Large Language Models はコメントを受け付けていません

Building Better: Avoiding Pitfalls in Developing Language Resources when Data is Scarce

要約 言語は、さまざまな形で人々の生活に影響を与える象徴的な資本です(Bourd … 続きを読む

カテゴリー: cs.CL, cs.CY | Building Better: Avoiding Pitfalls in Developing Language Resources when Data is Scarce はコメントを受け付けていません

Efficient Continual Pre-training of LLMs for Low-resource Languages

要約 オープンソースの大規模言語モデル (OsLLM) は、パフォーマンス向上の … 続きを読む

カテゴリー: cs.CL, cs.LG | Efficient Continual Pre-training of LLMs for Low-resource Languages はコメントを受け付けていません