-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
Loss-to-Loss Prediction: Scaling Laws for All Datasets
要約 スケーリング則は、単一のデータ分布の計算スケール全体で列車損失を予測するた … 続きを読む
Literature Meets Data: A Synergistic Approach to Hypothesis Generation
要約 AI は、仮説生成を含む科学プロセスを変革する可能性を秘めています。 仮説 … 続きを読む
A Flexible Large Language Models Guardrail Development Methodology Applied to Off-Topic Prompt Detection
要約 大規模な言語モデルは、主題から外れた誤用の傾向があり、ユーザーがこれらのモ … 続きを読む
Demystifying Large Language Models for Medicine: A Primer
要約 大規模言語モデル (LLM) は、さまざまなコンテキストにわたって人間のよ … 続きを読む
Keep the Cost Down: A Review on Methods to Optimize LLM’ s KV-Cache Consumption
要約 2022 年後半の ChatGPT リリースに代表される大規模言語モデル … 続きを読む
カテゴリー: cs.CL
Keep the Cost Down: A Review on Methods to Optimize LLM’ s KV-Cache Consumption はコメントを受け付けていません
Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models
要約 大規模言語モデル (LLM) は急速に進歩し、優れた機能を実証しています。 … 続きを読む
カテゴリー: cs.CL
Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models はコメントを受け付けていません
MindForge: Empowering Embodied Agents with Theory of Mind for Lifelong Collaborative Learning
要約 Minecraft の Voyager など、現代の身体化エージェントは、 … 続きを読む
Does Unlearning Truly Unlearn? A Black Box Evaluation of LLM Unlearning Methods
要約 大規模言語モデルの学習解除は、LLM が学習した有害な情報を削除して、悪意 … 続きを読む
Training Bilingual LMs with Data Constraints in the Targeted Language
要約 大規模な言語モデルは、現在のスケーリング法の要求に従って、Web の大規模 … 続きを読む
MemoryFormer: Minimize Transformer Computation by Removing Fully-Connected Layers
要約 大規模な言語モデルの計算の複雑さを軽減するために、リニア アテンションやフ … 続きを読む
カテゴリー: cs.CL
MemoryFormer: Minimize Transformer Computation by Removing Fully-Connected Layers はコメントを受け付けていません