cs.CL」カテゴリーアーカイブ

BabyLM’s First Words: Word Segmentation as a Phonological Probing Task

要約 言語モデルは、予測に基づく言語理論を研究するための重要な枠組みを提供するが … 続きを読む

カテゴリー: cs.CL | BabyLM’s First Words: Word Segmentation as a Phonological Probing Task はコメントを受け付けていません

Predictive Data Selection: The Data That Predicts Is the Data That Teaches

要約 言語モデルの事前学習には、膨大なコーパスを用いた学習が必要であり、データの … 続きを読む

カテゴリー: cs.CL | Predictive Data Selection: The Data That Predicts Is the Data That Teaches はコメントを受け付けていません

Improving Unsupervised Constituency Parsing via Maximizing Semantic Information

要約 教師なし構成素解析器は、文中のフレーズをツリー状の構文構成素構造に整理し、 … 続きを読む

カテゴリー: cs.CL | Improving Unsupervised Constituency Parsing via Maximizing Semantic Information はコメントを受け付けていません

Detecting Stereotypes and Anti-stereotypes the Correct Way Using Social Psychological Underpinnings

要約 ステレオタイプは非常に悪質であることが知られており、その発見は極めて重要で … 続きを読む

カテゴリー: cs.CL, cs.CY, cs.HC | Detecting Stereotypes and Anti-stereotypes the Correct Way Using Social Psychological Underpinnings はコメントを受け付けていません

RMB: Comprehensively Benchmarking Reward Models in LLM Alignment

要約 報酬モデル(RM)は、大規模言語モデル(LLM)のアライメントを導き、人間 … 続きを読む

カテゴリー: cs.CL | RMB: Comprehensively Benchmarking Reward Models in LLM Alignment はコメントを受け付けていません

Locations of Characters in Narratives: Andersen and Persuasion Datasets

要約 物語文脈の中で空間理解を把握する機械の能力は、読解の興味深い側面であり、研 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Locations of Characters in Narratives: Andersen and Persuasion Datasets はコメントを受け付けていません

Neutralizing the Narrative: AI-Powered Debiasing of Online News Articles

要約 報道における偏向は、特に犯罪、政治、社会問題に関して、人々の認識に大きな影 … 続きを読む

カテゴリー: cs.CL, cs.CY | Neutralizing the Narrative: AI-Powered Debiasing of Online News Articles はコメントを受け付けていません

Pub-Guard-LLM: Detecting Fraudulent Biomedical Articles with Reliable Explanations

要約 科学論文に不正行為が含まれていることが明らかになり、その数は増加の一途をた … 続きを読む

カテゴリー: cs.CL | Pub-Guard-LLM: Detecting Fraudulent Biomedical Articles with Reliable Explanations はコメントを受け付けていません

Diverse In-Context Example Selection After Decomposing Programs and Aligned Utterances Improves Semantic Parsing

要約 LLMは、自然言語の発話から構造化されたプログラムへのseq2seqトラン … 続きを読む

カテゴリー: cs.CL | Diverse In-Context Example Selection After Decomposing Programs and Aligned Utterances Improves Semantic Parsing はコメントを受け付けていません

Adaptive Semantic Prompt Caching with VectorQ

要約 意味的プロンプトキャッシュは、意味的に類似したプロンプトに対してキャッシュ … 続きを読む

カテゴリー: cs.CL, cs.LG | Adaptive Semantic Prompt Caching with VectorQ はコメントを受け付けていません