月別アーカイブ: 2025年1月

In-Trajectory Inverse Reinforcement Learning: Learn Incrementally Before An Ongoing Trajectory Terminates

要約 逆強化学習 (IRL) は、専門家の実証された軌跡に最も適合する報酬関数と … 続きを読む

カテゴリー: cs.LG | In-Trajectory Inverse Reinforcement Learning: Learn Incrementally Before An Ongoing Trajectory Terminates はコメントを受け付けていません

Task Singular Vectors: Reducing Task Interference in Model Merging

要約 タスク演算は、追加のトレーニングを行わずにモデルを結合するためのシンプルか … 続きを読む

カテゴリー: cs.LG, I.2.10, stat.ML | Task Singular Vectors: Reducing Task Interference in Model Merging はコメントを受け付けていません

Des-q: a quantum algorithm to provably speedup retraining of decision trees

要約 デシジョン ツリーは、そのシンプルさと説明可能性により、広く採用されている … 続きを読む

カテゴリー: cs.LG, quant-ph | Des-q: a quantum algorithm to provably speedup retraining of decision trees はコメントを受け付けていません

Accurate RNA 3D structure prediction using a language model-based deep learning approach

要約 RNA の三次元 (3D) 構造を正確に予測することは、依然として未解決の … 続きを読む

カテゴリー: cs.LG, q-bio.BM, q-bio.QM | Accurate RNA 3D structure prediction using a language model-based deep learning approach はコメントを受け付けていません

ArguMentor: Augmenting User Experiences with Counter-Perspectives

要約 私たちはソーシャルメディアの投稿、大統領討論会、ニュース記事、さらには広告 … 続きを読む

カテゴリー: cs.CL, cs.HC | ArguMentor: Augmenting User Experiences with Counter-Perspectives はコメントを受け付けていません

Token-Budget-Aware LLM Reasoning

要約 大規模言語モデル (LLM) が幅広いタスクで優れた性能を発揮するには、推 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Token-Budget-Aware LLM Reasoning はコメントを受け付けていません

Fast Gradient Computation for RoPE Attention in Almost Linear Time

要約 Rotary Position Embedding (RoPE) メカニズ … 続きを読む

カテゴリー: cs.AI, cs.CC, cs.CL, cs.LG | Fast Gradient Computation for RoPE Attention in Almost Linear Time はコメントを受け付けていません

PRD: Peer Rank and Discussion Improve Large Language Model based Evaluations

要約 現在、さまざまな最新の大規模言語モデル (LLM) によって生成される応答 … 続きを読む

カテゴリー: cs.AI, cs.CL | PRD: Peer Rank and Discussion Improve Large Language Model based Evaluations はコメントを受け付けていません

From Reading to Compressing: Exploring the Multi-document Reader for Prompt Compression

要約 大規模言語モデル (LLM) は、さまざまなタスクに対して高度なプロンプト … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | From Reading to Compressing: Exploring the Multi-document Reader for Prompt Compression はコメントを受け付けていません

RetrievalAttention: Accelerating Long-Context LLM Inference via Vector Retrieval

要約 トランスフォーマーベースの大規模言語モデル (LLM) はますます重要にな … 続きを読む

カテゴリー: cs.CL, cs.LG | RetrievalAttention: Accelerating Long-Context LLM Inference via Vector Retrieval はコメントを受け付けていません