月別アーカイブ: 2024年7月

Scientific Large Language Models: A Survey on Biological & Chemical Domains

要約 大規模言語モデル (LLM) は、自然言語の理解を強化する革新的な力として … 続きを読む

カテゴリー: cs.CL | Scientific Large Language Models: A Survey on Biological & Chemical Domains はコメントを受け付けていません

How Easily do Irrelevant Inputs Skew the Responses of Large Language Models?

要約 大規模言語モデル (LLM) は、外部知識データベースからの情報の取得を活 … 続きを読む

カテゴリー: cs.CL | How Easily do Irrelevant Inputs Skew the Responses of Large Language Models? はコメントを受け付けていません

Assessing In-context Learning and Fine-tuning for Topic Classification of German Web Data

要約 政治科学や社会科学の研究者は、分類モデルを利用して、何百万もの Web ペ … 続きを読む

カテゴリー: cs.CL | Assessing In-context Learning and Fine-tuning for Topic Classification of German Web Data はコメントを受け付けていません

AMONGAGENTS: Evaluating Large Language Models in the Interactive Text-Based Social Deduction Game

要約 戦略的社会演繹ゲームは、言語モデルの理解と推論スキルを評価するための貴重な … 続きを読む

カテゴリー: cs.CL | AMONGAGENTS: Evaluating Large Language Models in the Interactive Text-Based Social Deduction Game はコメントを受け付けていません

Large Language Models Lack Understanding of Character Composition of Words

要約 大規模言語モデル (LLM) は、幅広い自然言語タスクで顕著なパフォーマン … 続きを読む

カテゴリー: cs.CL | Large Language Models Lack Understanding of Character Composition of Words はコメントを受け付けていません

Quantifying the Role of Textual Predictability in Automatic Speech Recognition

要約 自動音声認識研究における長年の疑問は、高次のコンテキスト (語彙、形態論、 … 続きを読む

カテゴリー: cs.CL | Quantifying the Role of Textual Predictability in Automatic Speech Recognition はコメントを受け付けていません

Retrieve, Generate, Evaluate: A Case Study for Medical Paraphrases Generation with Small Language Models

要約 最近、大規模言語モデル (LLM) への一般大衆へのアクセシビリティが急増 … 続きを読む

カテゴリー: cs.CL | Retrieve, Generate, Evaluate: A Case Study for Medical Paraphrases Generation with Small Language Models はコメントを受け付けていません

TLCR: Token-Level Continuous Reward for Fine-grained Reinforcement Learning from Human Feedback

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、人間の嗜好デー … 続きを読む

カテゴリー: cs.CL | TLCR: Token-Level Continuous Reward for Fine-grained Reinforcement Learning from Human Feedback はコメントを受け付けていません

Shared Imagination: LLMs Hallucinate Alike

要約 最近の大規模言語モデル (LLM) の急増にもかかわらず、そのトレーニング … 続きを読む

カテゴリー: cs.CL | Shared Imagination: LLMs Hallucinate Alike はコメントを受け付けていません

Data Mixture Inference: What do BPE Tokenizers Reveal about their Training Data?

要約 現在の最強の言語モデルの事前トレーニング データは不透明です。 特に、さま … 続きを読む

カテゴリー: cs.CL, cs.LG | Data Mixture Inference: What do BPE Tokenizers Reveal about their Training Data? はコメントを受け付けていません