-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
Alleviating Hallucination in Large Vision-Language Models with Active Retrieval Augmentation
要約 近年、大規模言語モデル(LLM)において、外部の知識資源から情報を検索する … 続きを読む
Are Bigger Encoders Always Better in Vision Large Models?
要約 近年、マルチモーダル大規模言語モデル(MLLM)は、実世界での応用において … 続きを読む
SynesLM: A Unified Approach for Audio-visual Speech Recognition and Translation via Language Model and Synthetic Data
要約 本論文では、3つのマルチモーダル言語理解タスク、AV-ASR(視聴覚自動音 … 続きを読む
MM-Vet v2: A Challenging Benchmark to Evaluate Large Multimodal Models for Integrated Capabilities
要約 MM-Vetは、統合された能力を評価することを目的とした自由形式の視覚言語 … 続きを読む
Can ChatGPT Read Who You Are?
要約 人工知能 (AI) と心理学の相互作用、特に性格評価における相互作用は、重 … 続きを読む
Improving Retrieval for RAG based Question Answering Models on Financial Documents
要約 正確な応答を生成する際の大規模言語モデル (LLM) の有効性は、特に検索 … 続きを読む
Narrowing the Knowledge Evaluation Gap: Open-Domain Question Answering with Multi-Granularity Answers
要約 事実に関する質問は通常、さまざまな粒度レベルで正しく答えることができます。 … 続きを読む
カテゴリー: cs.CL
Narrowing the Knowledge Evaluation Gap: Open-Domain Question Answering with Multi-Granularity Answers はコメントを受け付けていません
Pistis-RAG: A Scalable Cascading Framework Towards Trustworthy Retrieval-Augmented Generation
要約 ギリシャ神話では、ピスティスは誠実、信頼、信頼性を象徴していました。 これ … 続きを読む
Metadata Integration for Spam Reviews Detection on Vietnamese E-commerce Websites
要約 スパムレビュー (意見) を検出する問題は、近年、特に電子商取引の急速な発 … 続きを読む
カテゴリー: cs.CL
Metadata Integration for Spam Reviews Detection on Vietnamese E-commerce Websites はコメントを受け付けていません
ChunkAttention: Efficient Self-Attention with Prefix-Aware KV Cache and Two-Phase Partition
要約 自己注意は大規模言語モデル (LLM) の重要なコンポーネントですが、長い … 続きを読む