cs.CL」カテゴリーアーカイブ

Leveraging Large Language Models for Active Merchant Non-player Characters

要約 現在のマーチャント非プレイヤーキャラクター(NPC)の受動性につながる2つ … 続きを読む

カテゴリー: cs.AI, cs.CL | Leveraging Large Language Models for Active Merchant Non-player Characters はコメントを受け付けていません

Factual Self-Awareness in Language Models: Representation, Robustness, and Scaling

要約 生成されたコンテンツにおける事実の誤りは、大規模な言語モデル(LLM)の遍 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Factual Self-Awareness in Language Models: Representation, Robustness, and Scaling はコメントを受け付けていません

RelationalFactQA: A Benchmark for Evaluating Tabular Fact Retrieval from Large Language Models

要約 大規模な言語モデル(LLMS)における事実性は、持続的な課題です。 現在の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DB | RelationalFactQA: A Benchmark for Evaluating Tabular Fact Retrieval from Large Language Models はコメントを受け付けていません

How to Protect Yourself from 5G Radiation? Investigating LLM Responses to Implicit Misinformation

要約 大規模な言語モデル(LLM)は多様なシナリオに広く展開されているため、誤っ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | How to Protect Yourself from 5G Radiation? Investigating LLM Responses to Implicit Misinformation はコメントを受け付けていません

RefTool: Enhancing Model Reasoning with Reference-Guided Tool Creation

要約 ツールは、複雑な問題解決タスクにおける大規模な言語モデル(LLM)の推論機 … 続きを読む

カテゴリー: cs.AI, cs.CL | RefTool: Enhancing Model Reasoning with Reference-Guided Tool Creation はコメントを受け付けていません

Transparent and Coherent Procedural Mistake Detection

要約 手続き上の間違い検出(PMD)は、人間のユーザー(エゴセントリックビデオで … 続きを読む

カテゴリー: cs.AI, cs.CL | Transparent and Coherent Procedural Mistake Detection はコメントを受け付けていません

When Two LLMs Debate, Both Think They’ll Win

要約 LLMSは反対に直面したときに自信を正確に調整できますか? 静的な事実ベー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | When Two LLMs Debate, Both Think They’ll Win はコメントを受け付けていません

GeLLMO: Generalizing Large Language Models for Multi-property Molecule Optimization

要約 最近の進歩にもかかわらず、分子の最適化のためのほとんどの計算方法は、単一ま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, physics.chem-ph, q-bio.QM | GeLLMO: Generalizing Large Language Models for Multi-property Molecule Optimization はコメントを受け付けていません

Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making

要約 大規模な言語モデル(LLMS)は、臨床質問応答に強い可能性を示しており、最 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, q-bio.OT | Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making はコメントを受け付けていません

How does Alignment Enhance LLMs’ Multilingual Capabilities? A Language Neurons Perspective

要約 多言語アラインメントは、LLMSの多言語機能を強化するための効果的かつ代表 … 続きを読む

カテゴリー: cs.AI, cs.CL | How does Alignment Enhance LLMs’ Multilingual Capabilities? A Language Neurons Perspective はコメントを受け付けていません