-
最近の投稿
- Outlier dimensions favor frequent tokens in language models
- OmniVox: Zero-Shot Emotion Recognition with Omni-LLMs
- LOCATEdit: Graph Laplacian Optimized Cross Attention for Localized Text-Guided Image Editing
- LaMOuR: Leveraging Language Models for Out-of-Distribution Recovery in Reinforcement Learning
- AcL: Action Learner for Fault-Tolerant Quadruped Locomotion Control
-
最近のコメント
表示できるコメントはありません。 cs.AI (35800) cs.CL (27066) cs.CR (2730) cs.CV (41655) cs.LG (40745) cs.RO (21108) cs.SY (3196) eess.IV (4896) eess.SY (3190) stat.ML (5346)
「I.2.7」カテゴリーアーカイブ
Outlier dimensions favor frequent tokens in language models
要約 最後の層の外れ値の寸法、つまり、大部分の入力に対して極端な活性化を示す寸法 … 続きを読む
SWI: Speaking with Intent in Large Language Models
要約 通常、明確に定式化され計画されている意図は、推論と問題解決のための認知フレ … 続きを読む
Outlier dimensions favor frequent tokens in language model
要約 最終層の外れ値の寸法、つまり、大部分の入力に対して極端なアクティベーション … 続きを読む
Exploring the Effect of Robotic Embodiment and Empathetic Tone of LLMs on Empathy Elicitation
要約 この研究では、社会的エージェントとの相互作用を通じて、第三者に対する共感の … 続きを読む
Right for Right Reasons: Large Language Models for Verifiable Commonsense Knowledge Graph Question Answering
要約 ナレッジグラフ質問応答(KGQA)メソッドは、知識グラフ(KG)に保存され … 続きを読む
Parental Guidance: Efficient Lifelong Learning through Evolutionary Distillation
要約 さまざまな動作を示しながら、さまざまな環境でうまく機能することができるロボ … 続きを読む
Deep Learning for Human Locomotion Analysis in Lower-Limb Exoskeletons: A Comparative Study
要約 下肢支援のためのウェアラブルロボット工学は、身体障害のある個人のモビリティ … 続きを読む
Sparse Logit Sampling: Accelerating Knowledge Distillation in LLMs
要約 知識の蒸留は、教師の出力ロジットを事前に計算してキャッシュすることができる … 続きを読む
A Study into Investigating Temporal Robustness of LLMs
要約 大規模な言語モデル(LLMS)は、驚くほどの事実の世界知識をカプセル化しま … 続きを読む
Are formal and functional linguistic mechanisms dissociated in language models?
要約 大規模な言語モデル(LLM)はますます能力がありますが、これらの機能は不均 … 続きを読む