cs.CL」カテゴリーアーカイブ

On Multilingual Encoder Language Model Compression for Low-Resource Languages

要約 このホワイトペーパーでは、低リソース言語向けの多言語エンコーダーのみの言語 … 続きを読む

カテゴリー: cs.CL | On Multilingual Encoder Language Model Compression for Low-Resource Languages はコメントを受け付けていません

Diverse Preference Optimization

要約 補強学習、好みの最適化、または監視された微調整のいずれかを通じて、言語モデ … 続きを読む

カテゴリー: cs.CL | Diverse Preference Optimization はコメントを受け付けていません

From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition

要約 自動音声認識(ASR)の最近の進歩は、大規模な音声コーパスによって大きく促 … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition はコメントを受け付けていません

VeriFastScore: Speeding up long-form factuality evaluation

要約 長い形式の事実を評価するFactScoreやVeriscoreなどのメトリ … 続きを読む

カテゴリー: cs.CL | VeriFastScore: Speeding up long-form factuality evaluation はコメントを受け付けていません

SWE-Dev: Evaluating and Training Autonomous Feature-Driven Software Development

要約 大規模な言語モデル(LLM)は、多様なソフトウェアエンジニアリングタスクに … 続きを読む

カテゴリー: cs.CL, cs.SE | SWE-Dev: Evaluating and Training Autonomous Feature-Driven Software Development はコメントを受け付けていません

LLM as Effective Streaming Processor: Bridging Streaming-Batch Mismatches with Group Position Encoding

要約 大規模な言語モデル(LLM)は、主にバッチ処理用に設計されています。 LL … 続きを読む

カテゴリー: cs.CL | LLM as Effective Streaming Processor: Bridging Streaming-Batch Mismatches with Group Position Encoding はコメントを受け付けていません

UFT: Unifying Supervised and Reinforcement Fine-Tuning

要約 トレーニング後は、大規模な言語モデル(LLM)の推論能力を高める上でその重 … 続きを読む

カテゴリー: cs.CL, cs.LG | UFT: Unifying Supervised and Reinforcement Fine-Tuning はコメントを受け付けていません

DecoupledESC: Enhancing Emotional Support Generation via Strategy-Response Decoupled Preference Optimization

要約 感情的サポート会話(ESC)の最近の進歩により、監視付き微調整(SFT)を … 続きを読む

カテゴリー: cs.CL | DecoupledESC: Enhancing Emotional Support Generation via Strategy-Response Decoupled Preference Optimization はコメントを受け付けていません

From 1,000,000 Users to Every User: Scaling Up Personalized Preference for User-level Alignment

要約 大規模な言語モデル(LLM)は、ユーザーの価値とニーズの多様性を根本的に見 … 続きを読む

カテゴリー: cs.AI, cs.CL | From 1,000,000 Users to Every User: Scaling Up Personalized Preference for User-level Alignment はコメントを受け付けていません

Diversity as a Reward: Fine-Tuning LLMs on a Mixture of Domain-Undetermined Data

要約 多様なデータセットを使用した大規模な言語モデル(LLMS)の微調整は、さま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Diversity as a Reward: Fine-Tuning LLMs on a Mixture of Domain-Undetermined Data はコメントを受け付けていません