cs.CL」カテゴリーアーカイブ

Towards Universality: Studying Mechanistic Similarity Across Language Model Architectures

要約 解釈可能性における普遍性の仮説は、異なるニューラル ネットワークが収束して … 続きを読む

カテゴリー: cs.CL | Towards Universality: Studying Mechanistic Similarity Across Language Model Architectures はコメントを受け付けていません

What Makes Large Language Models Reason in (Multi-Turn) Code Generation?

要約 思考連鎖などの即効性のある手法は、大規模言語モデル (LLM) の出力を向 … 続きを読む

カテゴリー: cs.CL | What Makes Large Language Models Reason in (Multi-Turn) Code Generation? はコメントを受け付けていません

Think Beyond Size: Dynamic Prompting for More Effective Reasoning

要約 この文書では、大規模言語モデル (LLM) の推論機能の向上を目的とした新 … 続きを読む

カテゴリー: cs.CL, cs.LG | Think Beyond Size: Dynamic Prompting for More Effective Reasoning はコメントを受け付けていません

Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning

要約 大規模な言語モデルで推論を改善するための有望なアプローチは、プロセス報酬モ … 続きを読む

カテゴリー: cs.CL, cs.LG | Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning はコメントを受け付けていません

The Effect of Surprisal on Reading Times in Information Seeking and Repeated Reading

要約 驚きが処理の困難に及ぼす影響は、心理言語学における研究の中心的なテーマとな … 続きを読む

カテゴリー: cs.CL | The Effect of Surprisal on Reading Times in Information Seeking and Repeated Reading はコメントを受け付けていません

GenARM: Reward Guided Generation with Autoregressive Reward Model for Test-time Alignment

要約 大規模言語モデル (LLM) は優れた機能を発揮しますが、人間の好みに注意 … 続きを読む

カテゴリー: cs.CL | GenARM: Reward Guided Generation with Autoregressive Reward Model for Test-time Alignment はコメントを受け付けていません

Closing the Loop: Learning to Generate Writing Feedback via Language Model Simulated Student Revisions

要約 フィードバックを提供することは、生徒のライティング スキルを向上させるため … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Closing the Loop: Learning to Generate Writing Feedback via Language Model Simulated Student Revisions はコメントを受け付けていません

Teaching-Inspired Integrated Prompting Framework: A Novel Approach for Enhancing Reasoning in Large Language Models

要約 大規模言語モデル (LLM) は、さまざまなドメインにわたって優れたパフォ … 続きを読む

カテゴリー: cs.AI, cs.CL | Teaching-Inspired Integrated Prompting Framework: A Novel Approach for Enhancing Reasoning in Large Language Models はコメントを受け付けていません

Sparse Attention Decomposition Applied to Circuit Tracing

要約 多くの論文は、アテンションヘッドが互いに連携して複雑なタスクを実行すること … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Sparse Attention Decomposition Applied to Circuit Tracing はコメントを受け付けていません

Paramanu: A Family of Novel Efficient Generative Foundation Language Models for Indian Languages

要約 インド言語の新しい言語モデル (LM) ファミリーである「Paramanu … 続きを読む

カテゴリー: cs.AI, cs.CL | Paramanu: A Family of Novel Efficient Generative Foundation Language Models for Indian Languages はコメントを受け付けていません