-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
Efficient Speech Translation through Model Compression and Knowledge Distillation
要約 音声翻訳のための大規模なオーディオ言語モデルの効率的な展開は、重要な計算要 … 続きを読む
MiLiC-Eval: Benchmarking Multilingual LLMs for China’s Minority Languages
要約 大規模な言語モデル(LLM)は高リソース言語で優れていますが、低リソース言 … 続きを読む
カテゴリー: cs.CL
MiLiC-Eval: Benchmarking Multilingual LLMs for China’s Minority Languages はコメントを受け付けていません
PIP: Perturbation-based Iterative Pruning for Large Language Models
要約 大規模な言語モデル(LLMS)のパラメーター数の急速な増加は、数十億人また … 続きを読む
SAEBench: A Comprehensive Benchmark for Sparse Autoencoders in Language Model Interpretability
要約 Sparse Autoencoders(SAE)は、言語モデルの活性化を解 … 続きを読む
ScEdit: Script-based Assessment of Knowledge Editing
要約 知識編集(KE)は注目を集めていますが、現在のKEタスクは比較的単純なまま … 続きを読む
カテゴリー: cs.CL
ScEdit: Script-based Assessment of Knowledge Editing はコメントを受け付けていません
EnigmaToM: Improve LLMs’ Theory-of-Mind Reasoning Capabilities with Neural Knowledge Base of Entity States
要約 他者の認識と精神状態を推測する能力である理論(TOM)は、人間の相互作用の … 続きを読む
カテゴリー: cs.CL
EnigmaToM: Improve LLMs’ Theory-of-Mind Reasoning Capabilities with Neural Knowledge Base of Entity States はコメントを受け付けていません
Tracr-Injection: Distilling Algorithms into Pre-trained Language Models
要約 大規模な言語モデルの急増に動機付けられているため、トランスアーキテクチャに … 続きを読む
カテゴリー: cs.CL
Tracr-Injection: Distilling Algorithms into Pre-trained Language Models はコメントを受け付けていません
Domain Regeneration: How well do LLMs match syntactic properties of text domains?
要約 大規模な言語モデルのパフォーマンスの最近の改善は、おそらく、トレーニングデ … 続きを読む
カテゴリー: cs.CL
Domain Regeneration: How well do LLMs match syntactic properties of text domains? はコメントを受け付けていません
Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search
要約 大規模な言語モデル(LLM)は、多様なドメイン全体で顕著な推論能力を示して … 続きを読む
ZEBRA: Leveraging Model-Behavioral Knowledge for Zero-Annotation Preference Dataset Construction
要約 LLMアライメントにおける最近の取り組みは、ヒトまたは人工知能(AI)アノ … 続きを読む