cs.CL」カテゴリーアーカイブ

How do language models learn facts? Dynamics, curricula and hallucinations

要約 大規模な言語モデルは、トレーニング前に膨大な知識を蓄積しますが、この獲得を … 続きを読む

カテゴリー: cs.CL, cs.LG | How do language models learn facts? Dynamics, curricula and hallucinations はコメントを受け付けていません

JiraiBench: A Bilingual Benchmark for Evaluating Large Language Models’ Detection of Human Self-Destructive Behavior Content in Jirai Community

要約 このペーパーでは、中国と日本のソーシャルメディアコミュニティで自己破壊的な … 続きを読む

カテゴリー: cs.CL, cs.CY | JiraiBench: A Bilingual Benchmark for Evaluating Large Language Models’ Detection of Human Self-Destructive Behavior Content in Jirai Community はコメントを受け付けていません

Learning to Represent Individual Differences for Choice Decision Making

要約 意思決定は多くの複雑な要因の影響を受けるため、人間の意思決定は予測するのが … 続きを読む

カテゴリー: cs.CL, cs.LG | Learning to Represent Individual Differences for Choice Decision Making はコメントを受け付けていません

As easy as PIE: understanding when pruning causes language models to disagree

要約 言語モデル(LM)剪定は、重み、ノード、またはそのアーキテクチャの他の部分 … 続きを読む

カテゴリー: cs.CL | As easy as PIE: understanding when pruning causes language models to disagree はコメントを受け付けていません

CLAIMCHECK: How Grounded are LLM Critiques of Scientific Papers?

要約 科学的ピアレビューの中核部分は、論文が行う科学的主張を直接評価する専門家の … 続きを読む

カテゴリー: cs.CL | CLAIMCHECK: How Grounded are LLM Critiques of Scientific Papers? はコメントを受け付けていません

Understanding the Logic of Direct Preference Alignment through Logic

要約 DPOなどの最近の直接選好アライメントアルゴリズム(DPA)は、大規模な言 … 続きを読む

カテゴリー: cs.CL | Understanding the Logic of Direct Preference Alignment through Logic はコメントを受け付けていません

Effective Skill Unlearning through Intervention and Abstention

要約 大規模な言語モデル(LLM)は、さまざまなドメインで顕著なスキルを示してい … 続きを読む

カテゴリー: cs.CL, cs.LG | Effective Skill Unlearning through Intervention and Abstention はコメントを受け付けていません

MemInsight: Autonomous Memory Augmentation for LLM Agents

要約 大規模な言語モデル(LLM)エージェントは、情報をインテリジェントに処理し … 続きを読む

カテゴリー: cs.CL | MemInsight: Autonomous Memory Augmentation for LLM Agents はコメントを受け付けていません

Low-Resource Transliteration for Roman-Urdu and Urdu Using Transformer-Based Models

要約 情報検索(IR)フィールドが包括性の重要性をますます認識しているため、低リ … 続きを読む

カテゴリー: cs.AI, cs.CL | Low-Resource Transliteration for Roman-Urdu and Urdu Using Transformer-Based Models はコメントを受け付けていません

SWI: Speaking with Intent in Large Language Models

要約 通常、明確に定式化され計画されている意図は、推論と問題解決のための認知フレ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | SWI: Speaking with Intent in Large Language Models はコメントを受け付けていません