-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.AI」カテゴリーアーカイブ
Are Generative AI Agents Effective Personalized Financial Advisors?
要約 大規模な言語モデルベースのエージェントは、パーソナライズされた会話のアドバ … 続きを読む
Understanding Layer Significance in LLM Alignment
要約 監視された微調整を介した大規模な言語モデル(LLM)を調整することは、特定 … 続きを読む
DiVA-DocRE: A Discriminative and Voice-Aware Paradigm for Document-Level Relation Extraction
要約 テキスト理解と生成における大規模な言語モデル(LLM)の顕著な能力は、情報 … 続きを読む
Green Prompting
要約 大規模な言語モデル(LLM)は、検索エンジン、コード生成、テキスト作成にま … 続きを読む
Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models
要約 通常、人間のフィードバック(RLHF)からの強化学習を通じて、人間の好みに … 続きを読む
On the Consistency of Multilingual Context Utilization in Retrieval-Augmented Generation
要約 大規模な言語モデル(LLMS)を使用した検索された生成(RAG)は、コーパ … 続きを読む
NativQA Framework: Enabling LLMs with Native, Local, and Everyday Knowledge
要約 大規模な言語モデル(LLMS)の急速な進歩は、文化的バイアス、公平性、およ … 続きを読む
Generating Usage-related Questions for Preference Elicitation in Conversational Recommender Systems
要約 従来の推奨システムに対する会話型推奨システムの重要な特徴は、自然言語を使用 … 続きを読む
Information-Theoretic Reward Decomposition for Generalizable RLHF
要約 一般化可能な報酬モデルは、人間のフィードバック(RLHF)からの強化学習に … 続きを読む
カテゴリー: cs.AI
Information-Theoretic Reward Decomposition for Generalizable RLHF はコメントを受け付けていません
Confidence Regularized Masked Language Modeling using Text Length
要約 入力テキストでランダムにマスクされた単語を予測するタスクであるマスクされた … 続きを読む