月別アーカイブ: 2025年2月

DeepThink: Aligning Language Models with Domain-Specific User Intents

要約 合成された命令を使用した監視された微調整は、LLMをドメイン固有のQAタス … 続きを読む

カテゴリー: cs.CL | DeepThink: Aligning Language Models with Domain-Specific User Intents はコメントを受け付けていません

A Judge-free LLM Open-ended Generation Benchmark Based on the Distributional Hypothesis

要約 大規模な言語モデル(LLM)の自由回答形式のテキスト生成を評価することは、 … 続きを読む

カテゴリー: cs.CL | A Judge-free LLM Open-ended Generation Benchmark Based on the Distributional Hypothesis はコメントを受け付けていません

Beyond English: The Impact of Prompt Translation Strategies across Languages and Tasks in Multilingual LLMs

要約 多様なタスクにわたる大規模な言語モデル(LLMS)の多言語機能の進歩にもか … 続きを読む

カテゴリー: cs.CL | Beyond English: The Impact of Prompt Translation Strategies across Languages and Tasks in Multilingual LLMs はコメントを受け付けていません

On-Device Emoji Classifier Trained with GPT-based Data Augmentation for a Mobile Keyboard

要約 絵文字は、モバイルキーボードを使用してテキストを交換するスマートフォンユー … 続きを読む

カテゴリー: cs.CL | On-Device Emoji Classifier Trained with GPT-based Data Augmentation for a Mobile Keyboard はコメントを受け付けていません

An Actionable Framework for Assessing Bias and Fairness in Large Language Model Use Cases

要約 大規模な言語モデル(LLM)は、さまざまな方法でバイアスを示すことができま … 続きを読む

カテゴリー: cs.AI, cs.CL | An Actionable Framework for Assessing Bias and Fairness in Large Language Model Use Cases はコメントを受け付けていません

Language Agents as Digital Representatives in Collective Decision-Making

要約 個人のグループが、代替の宇宙の中から好ましい結果をインタラクティブに選択す … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Language Agents as Digital Representatives in Collective Decision-Making はコメントを受け付けていません

Generative Prompt Internalization

要約 最近の大規模な言語モデルベースのアプリケーションで使用されているプロンプト … 続きを読む

カテゴリー: cs.AI, cs.CL | Generative Prompt Internalization はコメントを受け付けていません

WarriorCoder: Learning from Expert Battles to Augment Code Large Language Models

要約 コードの大規模な言語モデル(LLMS)によって最近達成されたにもかかわらず … 続きを読む

カテゴリー: cs.CL | WarriorCoder: Learning from Expert Battles to Augment Code Large Language Models はコメントを受け付けていません

The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units

要約 大規模な言語モデル(LLMS)は、言語タスクだけでなく、論理的推論や社会的 … 続きを読む

カテゴリー: cs.CL, cs.LG | The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units はコメントを受け付けていません

Rethinking Evaluation Metrics for Grammatical Error Correction: Why Use a Different Evaluation Process than Human?

要約 文法エラー補正(GEC)における自動評価メトリックの目標の1つは、GECシ … 続きを読む

カテゴリー: cs.CL | Rethinking Evaluation Metrics for Grammatical Error Correction: Why Use a Different Evaluation Process than Human? はコメントを受け付けていません