cs.CL」カテゴリーアーカイブ

Learning to Reason under Off-Policy Guidance

要約 大規模な推論モデル(LRMS)の最近の進歩は、マルチステップ推論や自己反省 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Learning to Reason under Off-Policy Guidance はコメントを受け付けていません

Speaker Fuzzy Fingerprints: Benchmarking Text-Based Identification in Multiparty Dialogues

要約 音声録音を使用したスピーカーの識別は、一意のアコースティック機能を活用しま … 続きを読む

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG, cs.NE | Speaker Fuzzy Fingerprints: Benchmarking Text-Based Identification in Multiparty Dialogues はコメントを受け付けていません

Evaluating LLMs on Chinese Topic Constructions: A Research Proposal Inspired by Tian et al. (2024)

要約 このペーパーでは、島の制約に対する感受性に焦点を当てた中国のトピック構造に … 続きを読む

カテゴリー: cs.CL | Evaluating LLMs on Chinese Topic Constructions: A Research Proposal Inspired by Tian et al. (2024) はコメントを受け付けていません

Efficient Pretraining Length Scaling

要約 大規模な言語モデルの最近の進歩は、トレーニング後の長さのスケーリングの有効 … 続きを読む

カテゴリー: cs.CL | Efficient Pretraining Length Scaling はコメントを受け付けていません

MoWE-Audio: Multitask AudioLLMs with Mixture of Weak Encoders

要約 大規模な言語モデル(LLMS)の急速な進歩は、自然言語処理能力を大幅に強化 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | MoWE-Audio: Multitask AudioLLMs with Mixture of Weak Encoders はコメントを受け付けていません

Context-Parametric Inversion: Why Instruction Finetuning Can Worsen Context Reliance

要約 大規模な言語モデルを使用する場合の標準的な練習は、ユーザーがモデルを処理す … 続きを読む

カテゴリー: cs.CL, cs.LG | Context-Parametric Inversion: Why Instruction Finetuning Can Worsen Context Reliance はコメントを受け付けていません

Stay Hungry, Stay Foolish: On the Extended Reading Articles Generation with LLMs

要約 教育資料を作成するプロセスは、教育者にとって時間がかかり、厳しいものです。 … 続きを読む

カテゴリー: cs.CL | Stay Hungry, Stay Foolish: On the Extended Reading Articles Generation with LLMs はコメントを受け付けていません

LLMs as Data Annotators: How Close Are We to Human Performance

要約 NLPでは、微調整LLMはさまざまなアプリケーションに効果的ですが、高品質 … 続きを読む

カテゴリー: cs.CL | LLMs as Data Annotators: How Close Are We to Human Performance はコメントを受け付けていません

DistilQwen2.5: Industrial Practices of Training Distilled Open Lightweight Language Models

要約 大規模な言語モデル(LLM)の計算効率を高め、展開コストを削減することは、 … 続きを読む

カテゴリー: cs.CL | DistilQwen2.5: Industrial Practices of Training Distilled Open Lightweight Language Models はコメントを受け付けていません

RainbowPlus: Enhancing Adversarial Prompt Generation via Evolutionary Quality-Diversity Search

要約 大規模な言語モデル(LLM)は顕著な能力を示しますが、安全でないまたは偏っ … 続きを読む

カテゴリー: cs.CL | RainbowPlus: Enhancing Adversarial Prompt Generation via Evolutionary Quality-Diversity Search はコメントを受け付けていません