I.2.7」カテゴリーアーカイブ

Quantitative Assessment of Intersectional Empathetic Bias and Understanding

要約 現在の共感の概念の曖昧な定義に基づいた共感の運用化を批判する文献が増えてい … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.HC, I.2.7 | Quantitative Assessment of Intersectional Empathetic Bias and Understanding はコメントを受け付けていません

Multimodal Clinical Reasoning through Knowledge-augmented Rationale Generation

要約 臨床的理論的根拠は、正確な疾患診断において極めて重要な役割を果たします。 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Multimodal Clinical Reasoning through Knowledge-augmented Rationale Generation はコメントを受け付けていません

How Do Large Language Models Acquire Factual Knowledge During Pretraining?

要約 大規模言語モデル (LLM) が実質的な事実知識を保存できるという最近の観 … 続きを読む

カテゴリー: cs.CL, I.2.7 | How Do Large Language Models Acquire Factual Knowledge During Pretraining? はコメントを受け付けていません

ExpressivityArena: Can LLMs Express Information Implicitly?

要約 大規模言語モデル (LLM) は特定の次元で顕著なパフォーマンスを示してい … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | ExpressivityArena: Can LLMs Express Information Implicitly? はコメントを受け付けていません

Quantitative Assessment of Intersectional Empathetic Bias and Understanding

要約 現在の共感の概念の曖昧な定義に基づいた共感の運用化を批判する文献が増えてい … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.HC, I.2.7 | Quantitative Assessment of Intersectional Empathetic Bias and Understanding はコメントを受け付けていません

Logits of API-Protected LLMs Leak Proprietary Information

要約 大規模言語モデル (LLM) プロバイダーは、パブリック アクセスを限定さ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CR, cs.LG, I.2.7 | Logits of API-Protected LLMs Leak Proprietary Information はコメントを受け付けていません

OpenFactCheck: A Unified Framework for Factuality Evaluation of LLMs

要約 現実世界のさまざまなアプリケーションで大規模言語モデル (LLM) の使用 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | OpenFactCheck: A Unified Framework for Factuality Evaluation of LLMs はコメントを受け付けていません

Growing a Tail: Increasing Output Diversity in Large Language Models

要約 多様性が必要な場合、大規模な言語モデルの出力はどの程度多様ですか? 私たち … 続きを読む

カテゴリー: cs.CL, cs.CY, I.2.7 | Growing a Tail: Increasing Output Diversity in Large Language Models はコメントを受け付けていません

LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models

要約 大規模言語モデル (LLM) はデータ合成には優れていますが、ドメイン固有 … 続きを読む

カテゴリー: cs.CL, I.2.7 | LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models はコメントを受け付けていません

Sparsing Law: Towards Large Language Models with Greater Activation Sparsity

要約 アクティベーションの希薄性は、アクティベーション出力内に、除去できる寄与度 … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7, stat.ML | Sparsing Law: Towards Large Language Models with Greater Activation Sparsity はコメントを受け付けていません