-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年6月
ChartMimic: Evaluating LMM’s Cross-Modal Reasoning Capability via Chart-to-Code Generation
要約 大規模マルチモーダル モデル (LMM) の視覚に基づいたコード生成機能を … 続きを読む
Bag of Lies: Robustness in Continuous Pre-training BERT
要約 この研究は、新型コロナウイルス感染症のパンデミックをケーススタディとして使 … 続きを読む
カテゴリー: cs.CL
Bag of Lies: Robustness in Continuous Pre-training BERT はコメントを受け付けていません
A Better LLM Evaluator for Text Generation: The Impact of Prompt Output Sequencing and Optimization
要約 この研究では、大規模言語モデル (LLM) を使用して生成されたテキストを … 続きを読む
カテゴリー: cs.CL
A Better LLM Evaluator for Text Generation: The Impact of Prompt Output Sequencing and Optimization はコメントを受け付けていません
Disentangling Dialect from Social Bias via Multitask Learning to Improve Fairness
要約 方言は、地域または社会集団で発生する言語の構文的および語彙的な変化をもたら … 続きを読む
カテゴリー: cs.CL
Disentangling Dialect from Social Bias via Multitask Learning to Improve Fairness はコメントを受け付けていません
HIRO: Hierarchical Information Retrieval Optimization
要約 大規模言語モデル (LLM) は自然言語タスクに優れていますが、静的トレー … 続きを読む
Details Make a Difference: Object State-Sensitive Neurorobotic Task Planning
要約 オブジェクトの状態は、その現在の状態や状態を反映しており、ロボットのタスク … 続きを読む
A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models
要約 AI の最も高度な技術の 1 つである検索拡張生成 (RAG) は、信頼性 … 続きを読む
Precision Empowers, Excess Distracts: Visual Question Answering With Dynamically Infused Knowledge In Language Models
要約 マルチモーダル タスクの領域では、ビジュアル 質問応答 (VQA) が、ビ … 続きを読む
カテゴリー: cs.CL
Precision Empowers, Excess Distracts: Visual Question Answering With Dynamically Infused Knowledge In Language Models はコメントを受け付けていません
Group and Shuffle: Efficient Structured Orthogonal Parametrization
要約 ニューラル ネットワークのサイズが増大するにつれて、効率的な微調整方法に対 … 続きを読む
Deep Bayesian Active Learning for Preference Modeling in Large Language Models
要約 人間の好みを利用して大規模言語モデル (LLM) の動作を制御することは、 … 続きを読む