-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
On Multilingual Encoder Language Model Compression for Low-Resource Languages
要約 このホワイトペーパーでは、低リソース言語向けの多言語エンコーダーのみの言語 … 続きを読む
カテゴリー: cs.CL
On Multilingual Encoder Language Model Compression for Low-Resource Languages はコメントを受け付けていません
Diverse Preference Optimization
要約 補強学習、好みの最適化、または監視された微調整のいずれかを通じて、言語モデ … 続きを読む
カテゴリー: cs.CL
Diverse Preference Optimization はコメントを受け付けていません
From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition
要約 自動音声認識(ASR)の最近の進歩は、大規模な音声コーパスによって大きく促 … 続きを読む
VeriFastScore: Speeding up long-form factuality evaluation
要約 長い形式の事実を評価するFactScoreやVeriscoreなどのメトリ … 続きを読む
カテゴリー: cs.CL
VeriFastScore: Speeding up long-form factuality evaluation はコメントを受け付けていません
SWE-Dev: Evaluating and Training Autonomous Feature-Driven Software Development
要約 大規模な言語モデル(LLM)は、多様なソフトウェアエンジニアリングタスクに … 続きを読む
LLM as Effective Streaming Processor: Bridging Streaming-Batch Mismatches with Group Position Encoding
要約 大規模な言語モデル(LLM)は、主にバッチ処理用に設計されています。 LL … 続きを読む
カテゴリー: cs.CL
LLM as Effective Streaming Processor: Bridging Streaming-Batch Mismatches with Group Position Encoding はコメントを受け付けていません
UFT: Unifying Supervised and Reinforcement Fine-Tuning
要約 トレーニング後は、大規模な言語モデル(LLM)の推論能力を高める上でその重 … 続きを読む
DecoupledESC: Enhancing Emotional Support Generation via Strategy-Response Decoupled Preference Optimization
要約 感情的サポート会話(ESC)の最近の進歩により、監視付き微調整(SFT)を … 続きを読む
カテゴリー: cs.CL
DecoupledESC: Enhancing Emotional Support Generation via Strategy-Response Decoupled Preference Optimization はコメントを受け付けていません
From 1,000,000 Users to Every User: Scaling Up Personalized Preference for User-level Alignment
要約 大規模な言語モデル(LLM)は、ユーザーの価値とニーズの多様性を根本的に見 … 続きを読む
Diversity as a Reward: Fine-Tuning LLMs on a Mixture of Domain-Undetermined Data
要約 多様なデータセットを使用した大規模な言語モデル(LLMS)の微調整は、さま … 続きを読む