cs.LG」カテゴリーアーカイブ

Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs

要約 スケーリング則は、トレーニング データセットと学習可能なパラメータの強引な … 続きを読む

カテゴリー: cs.AI, cs.LG | Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs はコメントを受け付けていません

Contrastive Learning Via Equivariant Representation

要約 不変対照学習 (ICL) 手法は、さまざまなドメインにわたって優れたパフォ … 続きを読む

カテゴリー: cs.AI, cs.LG | Contrastive Learning Via Equivariant Representation はコメントを受け付けていません

Closing the Loop: Learning to Generate Writing Feedback via Language Model Simulated Student Revisions

要約 フィードバックを提供することは、生徒のライティング スキルを向上させるため … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Closing the Loop: Learning to Generate Writing Feedback via Language Model Simulated Student Revisions はコメントを受け付けていません

Reward-Augmented Data Enhances Direct Preference Alignment of LLMs

要約 大規模言語モデル (LLM) における好みの調整により、人間の指示や意図に … 続きを読む

カテゴリー: cs.AI, cs.LG | Reward-Augmented Data Enhances Direct Preference Alignment of LLMs はコメントを受け付けていません

Sparse Attention Decomposition Applied to Circuit Tracing

要約 多くの論文は、アテンションヘッドが互いに連携して複雑なタスクを実行すること … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Sparse Attention Decomposition Applied to Circuit Tracing はコメントを受け付けていません

miniCodeProps: a Minimal Benchmark for Proving Code Properties

要約 AI エージェントは、Lean などの証明アシスタントでの数学定理証明の自 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SE | miniCodeProps: a Minimal Benchmark for Proving Code Properties はコメントを受け付けていません

Packing Analysis: Packing Is More Appropriate for Large Models or Datasets in Supervised Fine-tuning

要約 パッキングは、最初は事前トレーニング段階で利用され、モデルの最大入力長に合 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Packing Analysis: Packing Is More Appropriate for Large Models or Datasets in Supervised Fine-tuning はコメントを受け付けていません

Universal In-Context Approximation By Prompting Fully Recurrent Models

要約 ゼロショット学習とコンテキスト内学習により、モデルの微調整を行わずにタスク … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Universal In-Context Approximation By Prompting Fully Recurrent Models はコメントを受け付けていません

Reference-based Metrics Disprove Themselves in Question Generation

要約 BLEU や BERTScore などの参照ベースの指標は、質問生成 (Q … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Reference-based Metrics Disprove Themselves in Question Generation はコメントを受け付けていません

A Closer Look at Machine Unlearning for Large Language Models

要約 大規模言語モデル (LLM) は機密性の高いコンテンツや著作権で保護された … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | A Closer Look at Machine Unlearning for Large Language Models はコメントを受け付けていません