cs.CL」カテゴリーアーカイブ

AnyMatch — Efficient Zero-Shot Entity Matching with a Small Language Model

要約 エンティティ マッチング (EM) は、2 つのレコードが同じ実世界のエン … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DB | AnyMatch — Efficient Zero-Shot Entity Matching with a Small Language Model はコメントを受け付けていません

Towards a Unified View of Preference Learning for Large Language Models: A Survey

要約 大規模言語モデル (LLM) は、非常に強力な機能を発揮します。 成功を達 … 続きを読む

カテゴリー: cs.CL | Towards a Unified View of Preference Learning for Large Language Models: A Survey はコメントを受け付けていません

Sirius: Contextual Sparsity with Correction for Efficient LLMs

要約 大規模言語モデル (LLM) の開花に伴い、推論効率がますます重要になって … 続きを読む

カテゴリー: cs.CL | Sirius: Contextual Sparsity with Correction for Efficient LLMs はコメントを受け付けていません

CACER: Clinical Concept Annotations for Cancer Events and Relations

要約 臨床ノートには、医学的問題と処方薬の関係など、患者の病歴が構造化されていな … 続きを読む

カテゴリー: cs.CL | CACER: Clinical Concept Annotations for Cancer Events and Relations はコメントを受け付けていません

Experimentation in Content Moderation using RWKV

要約 この論文では、ターゲットを絞った実験を通じて、コンテンツのモデレーションに … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Experimentation in Content Moderation using RWKV はコメントを受け付けていません

UserSumBench: A Benchmark Framework for Evaluating User Summarization Approaches

要約 大規模言語モデル (LLM) は、生のユーザー アクティビティ データの長 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | UserSumBench: A Benchmark Framework for Evaluating User Summarization Approaches はコメントを受け付けていません

On The Role of Prompt Construction In Enhancing Efficacy and Efficiency of LLM-Based Tabular Data Generation

要約 実際の表形式データの LLM ベースのデータ生成は、列の説明に使用される特 … 続きを読む

カテゴリー: cs.CL | On The Role of Prompt Construction In Enhancing Efficacy and Efficiency of LLM-Based Tabular Data Generation はコメントを受け付けていません

Foundational Challenges in Assuring Alignment and Safety of Large Language Models

要約 この研究では、大規模言語モデル (LLM) の整合性と安全性を確保する上で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Foundational Challenges in Assuring Alignment and Safety of Large Language Models はコメントを受け付けていません

SELF-[IN]CORRECT: LLMs Struggle with Discriminating Self-Generated Responses

要約 LLM は以前の出力を一貫して改善して、より良い結果を得ることができますか … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SELF-[IN]CORRECT: LLMs Struggle with Discriminating Self-Generated Responses はコメントを受け付けていません

Reasoning Beyond Bias: A Study on Counterfactual Prompting and Chain of Thought Reasoning

要約 言語モデルはトレーニング データからバイアスを吸収し、意味的な関連性ではな … 続きを読む

カテゴリー: cs.AI, cs.CL | Reasoning Beyond Bias: A Study on Counterfactual Prompting and Chain of Thought Reasoning はコメントを受け付けていません