-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2023年6月
Leveraging Training Data in Few-Shot Prompting for Numerical Reasoning
要約 大規模な言語モデルを使用した思考連鎖 (CoT) プロンプトは、多くの自然 … 続きを読む
カテゴリー: cs.CL
Leveraging Training Data in Few-Shot Prompting for Numerical Reasoning はコメントを受け付けていません
I run as fast as a rabbit, can you? A Multilingual Simile Dialogue Dataset
要約 直喩とは、2 つの異なるもの (テノールとビークルと呼ばれます) を共有特 … 続きを読む
Probing Out-of-Distribution Robustness of Language Models with Parameter-Efficient Transfer Learning
要約 事前トレーニング済み言語モデル (PLM) のサイズが増大し続ける中、微調 … 続きを読む
カテゴリー: cs.CL
Probing Out-of-Distribution Robustness of Language Models with Parameter-Efficient Transfer Learning はコメントを受け付けていません
CELDA: Leveraging Black-box Language Model as Enhanced Classifier without Labels
要約 多くの最先端の LM が API を通じてリリースされ、大規模な規模を誇る … 続きを読む
カテゴリー: cs.CL
CELDA: Leveraging Black-box Language Model as Enhanced Classifier without Labels はコメントを受け付けていません
Judging LLM-as-a-judge with MT-Bench and Chatbot Arena
要約 大規模言語モデル (LLM) ベースのチャット アシスタントの評価は、チャ … 続きを読む
Learning Emotional Representations from Imbalanced Speech Data for Speech Emotion Recognition and Emotional Text-to-Speech
要約 効果的な音声感情表現は、音声感情認識 (SER) および感情的テキスト読み … 続きを読む
Robust Multi-bit Natural Language Watermarking through Invariant Features
要約 近年、購読ベースのメディア、Web 小説プラットフォーム、大規模な言語モデ … 続きを読む
Exploring the Responses of Large Language Models to Beginner Programmers’ Help Requests
要約 背景と背景: 過去 1 年間、大規模言語モデル (LLM) が世界を席巻し … 続きを読む
Arithmetic-Based Pretraining — Improving Numeracy of Pretrained Language Models
要約 最先端の事前トレーニング済み言語モデルは、数値の理解と操作が必要なタスクに … 続きを読む
カテゴリー: cs.CL
Arithmetic-Based Pretraining — Improving Numeracy of Pretrained Language Models はコメントを受け付けていません