cs.CL」カテゴリーアーカイブ

You Do Not Fully Utilize Transformer’s Representation Capacity

要約 前のトークンを単一の隠された状態に圧縮するRNNとは対照的に、トランスは前 … 続きを読む

カテゴリー: cs.CL, cs.LG | You Do Not Fully Utilize Transformer’s Representation Capacity はコメントを受け付けていません

The Joint Entity-Relation Extraction Model Based on Span and Interactive Fusion Representation for Chinese Medical Texts with Complex Semantics

要約 共同エンティティ関連の抽出は、構造化されていないまたは半構造化されたテキス … 続きを読む

カテゴリー: cs.AI, cs.CL | The Joint Entity-Relation Extraction Model Based on Span and Interactive Fusion Representation for Chinese Medical Texts with Complex Semantics はコメントを受け付けていません

On the Creativity of Large Language Models

要約 大規模な言語モデル(LLM)は、人工知能のいくつかの領域に革命をもたらして … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | On the Creativity of Large Language Models はコメントを受け付けていません

ReFINE: A Reward-Based Framework for Interpretable and Nuanced Evaluation of Radiology Report Generation

要約 自動放射線レポート生成(R2GEN)は大幅に進歩しており、その複雑さのため … 続きを読む

カテゴリー: cs.AI, cs.CL | ReFINE: A Reward-Based Framework for Interpretable and Nuanced Evaluation of Radiology Report Generation はコメントを受け付けていません

ACEBench: Who Wins the Match Point in Tool Usage?

要約 大規模な言語モデル(LLM)は、特に複雑な問題を効果的に解決するためにさま … 続きを読む

カテゴリー: cs.CL | ACEBench: Who Wins the Match Point in Tool Usage? はコメントを受け付けていません

SparQLe: Speech Queries to Text Translation Through LLMs

要約 大規模な言語モデル(LLMS)の影響力が高まっているため、音声表現を統合し … 続きを読む

カテゴリー: cs.AI, cs.CL | SparQLe: Speech Queries to Text Translation Through LLMs はコメントを受け付けていません

Enhancing Large Language Model Performance with Gradient-Based Parameter Selection

要約 大規模な言語モデル(LLM)は、多くの研究分野に革命をもたらしました。 L … 続きを読む

カテゴリー: cs.AI, cs.CL | Enhancing Large Language Model Performance with Gradient-Based Parameter Selection はコメントを受け付けていません

When the LM misunderstood the human chuckled: Analyzing garden path effects in humans and language models

要約 現代の大規模な言語モデル(LLM)は、多くの言語タスクで人間のような能力を … 続きを読む

カテゴリー: cs.AI, cs.CL | When the LM misunderstood the human chuckled: Analyzing garden path effects in humans and language models はコメントを受け付けていません

DeepThink: Aligning Language Models with Domain-Specific User Intents

要約 合成された命令を使用した監視された微調整は、LLMをドメイン固有のQAタス … 続きを読む

カテゴリー: cs.CL | DeepThink: Aligning Language Models with Domain-Specific User Intents はコメントを受け付けていません

A Judge-free LLM Open-ended Generation Benchmark Based on the Distributional Hypothesis

要約 大規模な言語モデル(LLM)の自由回答形式のテキスト生成を評価することは、 … 続きを読む

カテゴリー: cs.CL | A Judge-free LLM Open-ended Generation Benchmark Based on the Distributional Hypothesis はコメントを受け付けていません