-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年8月
Do Text-to-Vis Benchmarks Test Real Use of Visualisations?
要約 大規模な言語モデルは、ユーザーのリクエストに応じて視覚化のためのコードを生 … 続きを読む
FuseChat: Knowledge Fusion of Chat Models
要約 大規模言語モデル (LLM) を最初からトレーニングすると、確かに独特の機 … 続きを読む
カテゴリー: cs.CL
FuseChat: Knowledge Fusion of Chat Models はコメントを受け付けていません
Leveraging Web-Crawled Data for High-Quality Fine-Tuning
要約 大規模な言語モデルのほとんどは、人間が注釈を付けた高価なデータ、または特定 … 続きを読む
カテゴリー: cs.CL
Leveraging Web-Crawled Data for High-Quality Fine-Tuning はコメントを受け付けていません
Enhancing Large Language Model-based Speech Recognition by Contextualization for Rare and Ambiguous Words
要約 私たちは、テキスト プロンプトで事前情報としてキーワードを提供することで文 … 続きを読む
Text2BIM: Generating Building Models Using a Large Language Model-based Multi-Agent Framework
要約 従来の BIM オーサリング プロセスでは通常、設計者が BIM オーサリ … 続きを読む
Large Language Model Sentinel: LLM Agent for Adversarial Purification
要約 過去 2 年間で、大規模言語モデル (LLM) の使用が急速に進歩しました … 続きを読む
Distilling Reasoning Ability from Large Language Models with Adaptive Thinking
要約 思考連鎖の微調整 (cot-finetuning) は、単に答えを予測する … 続きを読む
カテゴリー: cs.CL
Distilling Reasoning Ability from Large Language Models with Adaptive Thinking はコメントを受け付けていません
RAGChecker: A Fine-grained Framework for Diagnosing Retrieval-Augmented Generation
要約 検索拡張生成 (RAG) は外部知識を活用する有望な機能を示していますが、 … 続きを読む
MS-HuBERT: Mitigating Pre-training and Inference Mismatch in Masked Language Modelling methods for learning Speech Representations
要約 近年、生の音声から高レベルの情報を学習する際に、自己教師ありの事前トレーニ … 続きを読む
カテゴリー: cs.CL
MS-HuBERT: Mitigating Pre-training and Inference Mismatch in Masked Language Modelling methods for learning Speech Representations はコメントを受け付けていません
I-SHEEP: Self-Alignment of LLM from Scratch through an Iterative Self-Enhancement Paradigm
要約 大規模言語モデル (LLM) は大幅な進歩を遂げていますが、一般的な学習パ … 続きを読む
カテゴリー: cs.CL
I-SHEEP: Self-Alignment of LLM from Scratch through an Iterative Self-Enhancement Paradigm はコメントを受け付けていません