cs.CL」カテゴリーアーカイブ

TOMG-Bench: Evaluating LLMs on Text-based Open Molecule Generation

要約 この論文では、LLMSのオープンドメイン分子生成能力を評価する最初のベンチ … 続きを読む

カテゴリー: cs.CL | TOMG-Bench: Evaluating LLMs on Text-based Open Molecule Generation はコメントを受け付けていません

Improving Complex Reasoning with Dynamic Prompt Corruption: A soft prompt Optimization Approach

要約 大規模な言語モデル(LLMS)のプロンプトチューニング(PT)は、トレーニ … 続きを読む

カテゴリー: cs.AI, cs.CL | Improving Complex Reasoning with Dynamic Prompt Corruption: A soft prompt Optimization Approach はコメントを受け付けていません

BigCodeBench: Benchmarking Code Generation with Diverse Function Calls and Complex Instructions

要約 タスクオートメーションは、ソフトウェアエンジニアリング開発から汎用推論に至 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SE | BigCodeBench: Benchmarking Code Generation with Diverse Function Calls and Complex Instructions はコメントを受け付けていません

MTL-LoRA: Low-Rank Adaptation for Multi-Task Learning

要約 パラメーター効率の高い微調整(PEFT)は、ドメインの適応に広く採用されて … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | MTL-LoRA: Low-Rank Adaptation for Multi-Task Learning はコメントを受け付けていません

Sabiá-3 Technical Report

要約 このレポートは、新しいフラッグシップ言語モデルであるSabi \ &#82 … 続きを読む

カテゴリー: cs.AI, cs.CL | Sabiá-3 Technical Report はコメントを受け付けていません

QualiSpeech: A Speech Quality Assessment Dataset with Natural Language Reasoning and Descriptions

要約 このペーパーでは、自然言語の説明を活用することにより、音声品質評価に対する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | QualiSpeech: A Speech Quality Assessment Dataset with Natural Language Reasoning and Descriptions はコメントを受け付けていません

HRET: A Self-Evolving LLM Evaluation Toolkit for Korean

要約 韓国の大手言語モデル(LLMS)の最近の進歩は、多数のベンチマークと評価方 … 続きを読む

カテゴリー: cs.AI, cs.CE, cs.CL | HRET: A Self-Evolving LLM Evaluation Toolkit for Korean はコメントを受け付けていません

PICLe: Pseudo-Annotations for In-Context Learning in Low-Resource Named Entity Detection

要約 コンテキスト内学習(ICL)により、大規模な言語モデル(LLM)が少数のデ … 続きを読む

カテゴリー: cs.AI, cs.CL | PICLe: Pseudo-Annotations for In-Context Learning in Low-Resource Named Entity Detection はコメントを受け付けていません

Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning

要約 大規模な言語モデル(LLM)は、さまざまな言語タスクにわたって顕著な能力を … 続きを読む

カテゴリー: cs.AI, cs.CL | Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning はコメントを受け付けていません

Large Language Models are In-Context Molecule Learners

要約 大規模な言語モデル(LLMS)は、生化学的タスク、特に分子と自然言語のテキ … 続きを読む

カテゴリー: cs.AI, cs.CL | Large Language Models are In-Context Molecule Learners はコメントを受け付けていません