月別アーカイブ: 2025年5月

Data Mixing Can Induce Phase Transitions in Knowledge Acquisition

要約 大規模な言語モデル(LLM)は通常、データの混合物でトレーニングされていま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Data Mixing Can Induce Phase Transitions in Knowledge Acquisition はコメントを受け付けていません

Planning without Search: Refining Frontier LLMs with Offline Goal-Conditioned RL

要約 大規模な言語モデル(LLM)は、質問の回答や対話などのタスクで優れています … 続きを読む

カテゴリー: cs.AI, cs.CL | Planning without Search: Refining Frontier LLMs with Offline Goal-Conditioned RL はコメントを受け付けていません

How Can I Publish My LLM Benchmark Without Giving the True Answers Away?

要約 インターネット上の大規模な言語モデル(LLM)ベンチマークを公開することは … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ME | How Can I Publish My LLM Benchmark Without Giving the True Answers Away? はコメントを受け付けていません

Activated LoRA: Fine-tuned LLMs for Intrinsics

要約 低ランク適応(LORA)は、大規模な基礎モデルの重みを微調整するための非常 … 続きを読む

カテゴリー: cs.AI, cs.LG | Activated LoRA: Fine-tuned LLMs for Intrinsics はコメントを受け付けていません

Bidirectional Knowledge Distillation for Enhancing Sequential Recommendation with Large Language Models

要約 大規模な言語モデル(LLMS)は、セマンティックパターンの理解と生成におい … 続きを読む

カテゴリー: cs.AI, cs.IR | Bidirectional Knowledge Distillation for Enhancing Sequential Recommendation with Large Language Models はコメントを受け付けていません

Parameter Symmetry Potentially Unifies Deep Learning Theory

要約 現代の大規模なAIシステムにおける学習のダイナミクスは階層的であり、多くの … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, stat.ML | Parameter Symmetry Potentially Unifies Deep Learning Theory はコメントを受け付けていません

ProgRM: Build Better GUI Agents with Progress Rewards

要約 LLMベースの(大手言語モデル)GUI(グラフィカルユーザーインターフェイ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ProgRM: Build Better GUI Agents with Progress Rewards はコメントを受け付けていません

Reward Model Overoptimisation in Iterated RLHF

要約 人間のフィードバック(RLHF)からの強化学習は、大規模な言語モデルを人間 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Reward Model Overoptimisation in Iterated RLHF はコメントを受け付けていません

Is Your Paper Being Reviewed by an LLM? Benchmarking AI Text Detection in Peer Review

要約 ピアレビューは、公開された科学研究の完全性を確保するための重要なプロセスで … 続きを読む

カテゴリー: cs.AI, cs.CL | Is Your Paper Being Reviewed by an LLM? Benchmarking AI Text Detection in Peer Review はコメントを受け付けていません

Leveraging KANs for Expedient Training of Multichannel MLPs via Preconditioning and Geometric Refinement

要約 多層パーセプロン(MLP)は、さまざまな現代の深い学習フレームワークで使用 … 続きを読む

カテゴリー: 68T99, cs.AI, cs.LG, I.2.6 | Leveraging KANs for Expedient Training of Multichannel MLPs via Preconditioning and Geometric Refinement はコメントを受け付けていません