I.2.7」カテゴリーアーカイブ

Outlier dimensions favor frequent tokens in language models

要約 最後の層の外れ値の寸法、つまり、大部分の入力に対して極端な活性化を示す寸法 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | コメントする

SWI: Speaking with Intent in Large Language Models

要約 通常、明確に定式化され計画されている意図は、推論と問題解決のための認知フレ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | コメントする

Outlier dimensions favor frequent tokens in language model

要約 最終層の外れ値の寸法、つまり、大部分の入力に対して極端なアクティベーション … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | コメントする

Exploring the Effect of Robotic Embodiment and Empathetic Tone of LLMs on Empathy Elicitation

要約 この研究では、社会的エージェントとの相互作用を通じて、第三者に対する共感の … 続きを読む

カテゴリー: cs.CL, cs.HC, cs.RO, H.5.2, I.2.7, I.2.9 | コメントする

Right for Right Reasons: Large Language Models for Verifiable Commonsense Knowledge Graph Question Answering

要約 ナレッジグラフ質問応答(KGQA)メソッドは、知識グラフ(KG)に保存され … 続きを読む

カテゴリー: cs.CL, I.2.7 | コメントする

Parental Guidance: Efficient Lifelong Learning through Evolutionary Distillation

要約 さまざまな動作を示しながら、さまざまな環境でうまく機能することができるロボ … 続きを読む

カテゴリー: cs.LG, cs.NE, cs.RO, F.2.2, I.2.7 | コメントする

Deep Learning for Human Locomotion Analysis in Lower-Limb Exoskeletons: A Comparative Study

要約 下肢支援のためのウェアラブルロボット工学は、身体障害のある個人のモビリティ … 続きを読む

カテゴリー: cs.AI, cs.RO, F.2.2, I.2.7 | コメントする

Sparse Logit Sampling: Accelerating Knowledge Distillation in LLMs

要約 知識の蒸留は、教師の出力ロジットを事前に計算してキャッシュすることができる … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2.7 | コメントする

A Study into Investigating Temporal Robustness of LLMs

要約 大規模な言語モデル(LLMS)は、驚くほどの事実の世界知識をカプセル化しま … 続きを読む

カテゴリー: 68T50, cs.CL, cs.IR, I.2.7 | コメントする

Are formal and functional linguistic mechanisms dissociated in language models?

要約 大規模な言語モデル(LLM)はますます能力がありますが、これらの機能は不均 … 続きを読む

カテゴリー: cs.CL, I.2.7 | コメントする