投稿者「jarxiv」のアーカイブ

TRACE for Tracking the Emergence of Semantic Representations in Transformers

要約 最新の変圧器モデルは、トレーニング中に相転移を示し、記憶から抽象化への明確 … 続きを読む

カテゴリー: cs.CL | TRACE for Tracking the Emergence of Semantic Representations in Transformers はコメントを受け付けていません

TrendFact: A Benchmark for Explainable Hotspot Perception in Fact-Checking with Natural Language Explanation

要約 事実検証は依然として基本的なものですが、説明生成は、解釈可能な理論的根拠を … 続きを読む

カテゴリー: cs.CL | TrendFact: A Benchmark for Explainable Hotspot Perception in Fact-Checking with Natural Language Explanation はコメントを受け付けていません

Playpen: An Environment for Exploring Learning Through Conversational Interaction

要約 学習者とフィードバック提供者の間の相互作用は、モデルの応答の適切性を判断す … 続きを読む

カテゴリー: cs.CL | Playpen: An Environment for Exploring Learning Through Conversational Interaction はコメントを受け付けていません

Contrastive Distillation of Emotion Knowledge from LLMs for Zero-Shot Emotion Recognition

要約 専用のトレーニングなしでさまざまな感情ラベルを処理する機能は、適応可能な感 … 続きを読む

カテゴリー: cs.CL | Contrastive Distillation of Emotion Knowledge from LLMs for Zero-Shot Emotion Recognition はコメントを受け付けていません

MathEDU: Towards Adaptive Feedback for Student Mathematical Problem-Solving

要約 オンライン学習は教育的アクセシビリティを向上させ、学生にいつでもどこでも学 … 続きを読む

カテゴリー: cs.CL | MathEDU: Towards Adaptive Feedback for Student Mathematical Problem-Solving はコメントを受け付けていません

KCIF: Knowledge-Conditioned Instruction Following

要約 LLM評価ベンチマークは、従来、知識/推論機能のテストを次のように分離して … 続きを読む

カテゴリー: cs.CL | KCIF: Knowledge-Conditioned Instruction Following はコメントを受け付けていません

Prototypical Human-AI Collaboration Behaviors from LLM-Assisted Writing in the Wild

要約 大規模な言語モデル(LLM)が複雑なライティングワークフローで使用されるた … 続きを読む

カテゴリー: cs.CL, cs.HC | Prototypical Human-AI Collaboration Behaviors from LLM-Assisted Writing in the Wild はコメントを受け付けていません

WILDCHAT-50M: A Deep Dive Into the Role of Synthetic Data in Post-Training

要約 DPOから蒸留まで、訓練後の言語モデル(LLM)は、行動を改良し、新しいス … 続きを読む

カテゴリー: cs.CL, cs.LG | WILDCHAT-50M: A Deep Dive Into the Role of Synthetic Data in Post-Training はコメントを受け付けていません

From Lists to Emojis: How Format Bias Affects Model Alignment

要約 この論文では、人間のフィードバック(RLHF)からの強化学習における形式バ … 続きを読む

カテゴリー: cs.CL, cs.LG | From Lists to Emojis: How Format Bias Affects Model Alignment はコメントを受け付けていません

Hogwild! Inference: Parallel LLM Generation via Concurrent Attention

要約 大規模な言語モデル(LLMS)は、高度な推論、長型のコンテンツ生成、および … 続きを読む

カテゴリー: cs.CL, cs.LG | Hogwild! Inference: Parallel LLM Generation via Concurrent Attention はコメントを受け付けていません