-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.AI」カテゴリーアーカイブ
Compromising Honesty and Harmlessness in Language Models via Deception Attacks
要約 大規模な言語モデル(LLMS)に関する最近の研究は、明示的な促進がなくても … 続きを読む
Rethinking Chain-of-Thought from the Perspective of Self-Training
要約 LLMの潜在能力をアクティブにするための効果的なアプローチとして、チェーン … 続きを読む
TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models
要約 因果言語モデルは顕著な能力を実証していますが、そのサイズは、リソースに制約 … 続きを読む
$C^2$: Scalable Auto-Feedback for LLM-based Chart Generation
要約 大規模な言語モデル(LLM)を備えた高品質のチャートを生成することは、デー … 続きを読む
Top-Theta Attention: Sparsifying Transformers by Compensated Thresholding
要約 注意メカニズムは、トランスベースの大手言語モデル(LLMS)の印象的な能力 … 続きを読む
U-shaped and Inverted-U Scaling behind Emergent Abilities of Large Language Models
要約 大規模な言語モデル(LLM)は、いくつかの下流タスクで緊急能力を示すことが … 続きを読む
NYT-Connections: A Deceptively Simple Text Classification Task that Stumps System-1 Thinkers
要約 大規模な言語モデル(LLM)は、さまざまなベンチマークで印象的なパフォーマ … 続きを読む
From Haystack to Needle: Label Space Reduction for Zero-shot Classification
要約 ラベルスペース削減(LSR)を提示します。これは、大規模な言語モデル(LL … 続きを読む
Better Embeddings with Coupled Adam
要約 それらの驚くべき能力にもかかわらず、LLMSは、異方性の望ましくないが理解 … 続きを読む
How Sparse Attention Approximates Exact Attention? Your Attention is Naturally $n^C$-Sparse
要約 まばらな注意は、標準的な注意計算を亜科下の複雑さで近似する手法です。 これ … 続きを読む