-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2023年6月
UKP-SQuARE: An Interactive Tool for Teaching Question Answering
要約 質問応答(QA)の急激な成長により、自然言語処理(NLP)のコースでは欠か … 続きを読む
カテゴリー: cs.CL
UKP-SQuARE: An Interactive Tool for Teaching Question Answering はコメントを受け付けていません
EmoUS: Simulating User Emotions in Task-Oriented Dialogues
要約 タスク指向の対話システムのための既存のユーザーシミュレータ(US)は、ユー … 続きを読む
カテゴリー: cs.CL
EmoUS: Simulating User Emotions in Task-Oriented Dialogues はコメントを受け付けていません
Learning from Partially Annotated Data: Example-aware Creation of Gap-filling Exercises for Language Learning
要約 演習(模擬試験など)は学習の重要な要素であり、演習の作成には教師の労力が必 … 続きを読む
カテゴリー: cs.CL
Learning from Partially Annotated Data: Example-aware Creation of Gap-filling Exercises for Language Learning はコメントを受け付けていません
PhysNLU: A Language Resource for Evaluating Natural Language Understanding and Explanation Coherence in Physics
要約 言語モデルが物理学研究を支援するためには、まず、文の順序や関連性が正しく、 … 続きを読む
カテゴリー: cs.CL
PhysNLU: A Language Resource for Evaluating Natural Language Understanding and Explanation Coherence in Physics はコメントを受け付けていません
REV: Information-Theoretic Evaluation of Free-Text Rationales
要約 フリーテキストの根拠を生成することは、説明可能なNLPへの有望なステップで … 続きを読む
カテゴリー: cs.CL
REV: Information-Theoretic Evaluation of Free-Text Rationales はコメントを受け付けていません
AfriNames: Most ASR models ‘butcher’ African Names
要約 例えば、音声アシスタントに特定のアーティストの曲を再生するよう依頼する、特 … 続きを読む
Shades of Iteration: from Elgot to Kleene
要約 反復の概念は、最も一般的なElgot反復から非常に特殊なKleene反復ま … 続きを読む
Fine-Grained Human Feedback Gives Better Rewards for Language Model Training
要約 言語モデル(LM)は、しばしば、誤った、有害な、あるいは無関係な出力を生成 … 続きを読む
カテゴリー: cs.CL
Fine-Grained Human Feedback Gives Better Rewards for Language Model Training はコメントを受け付けていません
ThinkSum: Probabilistic reasoning over sets using large language models
要約 大規模言語モデル(LLM)は、学習データ(ゼロショット評価)または与えられ … 続きを読む
カテゴリー: cs.CL
ThinkSum: Probabilistic reasoning over sets using large language models はコメントを受け付けていません
Learning Multi-step Reasoning from Arithmetic Task
要約 数学的推論は言語モデル(LM)に必要な能力であると考えられている。最近の研 … 続きを読む
カテゴリー: cs.CL
Learning Multi-step Reasoning from Arithmetic Task はコメントを受け付けていません