cs.CL」カテゴリーアーカイブ

Understanding Layer Significance in LLM Alignment

要約 大規模言語モデル (LLM) を特定のアプリケーションに合わせて調整するに … 続きを読む

カテゴリー: cs.AI, cs.CL | Understanding Layer Significance in LLM Alignment はコメントを受け付けていません

I’ve Got 99 Problems But FLOPS Ain’t One

要約 ハイパースケーラーは、大規模なネットワーク導入の状況を支配していますが、直 … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG, cs.NI | I’ve Got 99 Problems But FLOPS Ain’t One はコメントを受け付けていません

Attribute or Abstain: Large Language Models as Long Document Assistants

要約 LLM は人間が長い文書を扱うのに役立ちますが、幻覚を引き起こすことが知ら … 続きを読む

カテゴリー: cs.CL | Attribute or Abstain: Large Language Models as Long Document Assistants はコメントを受け付けていません

SpeakGer: A meta-data enriched speech corpus of German state and federal parliaments

要約 政治文書や演説への自然言語処理の適用は、一人では読めない膨大なテキストコー … 続きを読む

カテゴリー: cs.CL | SpeakGer: A meta-data enriched speech corpus of German state and federal parliaments はコメントを受け付けていません

Scaling Diffusion Language Models via Adaptation from Autoregressive Models

要約 拡散言語モデル (DLM) は、テキスト生成モデリングの有望な新しいパラダ … 続きを読む

カテゴリー: cs.CL | Scaling Diffusion Language Models via Adaptation from Autoregressive Models はコメントを受け付けていません

CPE-Pro: A Structure-Sensitive Deep Learning Method for Protein Representation and Origin Evaluation

要約 タンパク質の構造は、その機能と相互作用を理解するために重要です。 現在、多 … 続きを読む

カテゴリー: cs.CL, cs.LG, q-bio.BM, q-bio.QM | CPE-Pro: A Structure-Sensitive Deep Learning Method for Protein Representation and Origin Evaluation はコメントを受け付けていません

Value Residual Learning For Alleviating Attention Concentration In Transformers

要約 トランスフォーマーはセルフアテンションを使用して長距離の依存関係をキャプチ … 続きを読む

カテゴリー: cs.CL | Value Residual Learning For Alleviating Attention Concentration In Transformers はコメントを受け付けていません

ELAICHI: Enhancing Low-resource TTS by Addressing Infrequent and Low-frequency Character Bigrams

要約 Text-to-Speech (TTS) テクノロジーの最近の進歩により、 … 続きを読む

カテゴリー: cs.CL, eess.AS | ELAICHI: Enhancing Low-resource TTS by Addressing Infrequent and Low-frequency Character Bigrams はコメントを受け付けていません

Let Me Teach You: Pedagogical Foundations of Feedback for Language Models

要約 自然言語フィードバック (NLF) は、大規模言語モデル (LLM) を人 … 続きを読む

カテゴリー: cs.CL | Let Me Teach You: Pedagogical Foundations of Feedback for Language Models はコメントを受け付けていません

Task Prompt Vectors: Effective Initialization through Multi-Task Soft-Prompt Transfer

要約 迅速なチューニングは、大規模言語モデル (LLM) をトレーニングするため … 続きを読む

カテゴリー: cs.CL | Task Prompt Vectors: Effective Initialization through Multi-Task Soft-Prompt Transfer はコメントを受け付けていません