cs.CL」カテゴリーアーカイブ

Bridging the Empirical-Theoretical Gap in Neural Network Formal Language Learning Using Minimum Description Length

要約 ニューラル ネットワークは、多くのタスクに対して適切な近似を提供しますが、 … 続きを読む

カテゴリー: cs.CL, cs.FL | Bridging the Empirical-Theoretical Gap in Neural Network Formal Language Learning Using Minimum Description Length はコメントを受け付けていません

Rethinking LLM and Linguistic Steganalysis: An Efficient Detection of Strongly Concealed Stego

要約 複雑なシナリオでステゴ (ステガノグラフィック テキスト) を検出するため … 続きを読む

カテゴリー: cs.CL | Rethinking LLM and Linguistic Steganalysis: An Efficient Detection of Strongly Concealed Stego はコメントを受け付けていません

Sparsity-Accelerated Training for Large Language Models

要約 大規模言語モデル (LLM) は、さまざまな自然言語処理 (NLP) タス … 続きを読む

カテゴリー: cs.CL | Sparsity-Accelerated Training for Large Language Models はコメントを受け付けていません

Hypernetworks for Personalizing ASR to Atypical Speech

要約 自動音声認識 (ASR) をパーソナライズするためのパラメーター効率の良い … 続きを読む

カテゴリー: cs.CL, cs.LG | Hypernetworks for Personalizing ASR to Atypical Speech はコメントを受け付けていません

Benchmark Data Contamination of Large Language Models: A Survey

要約 GPT-4、Claude-3、Gemini などの大規模言語モデル (LL … 続きを読む

カテゴリー: cs.CL | Benchmark Data Contamination of Large Language Models: A Survey はコメントを受け付けていません

Reflect-RL: Two-Player Online RL Fine-Tuning for LMs

要約 言語モデル (LM) がさまざまな分野でその機能を実証するにつれて、マルチ … 続きを読む

カテゴリー: cs.CL, cs.LG | Reflect-RL: Two-Player Online RL Fine-Tuning for LMs はコメントを受け付けていません

Transformers need glasses! Information over-squashing in language tasks

要約 私たちは、ほとんどの既存のフロンティア大規模言語モデル (LLM) のアー … 続きを読む

カテゴリー: cs.CL, cs.LG | Transformers need glasses! Information over-squashing in language tasks はコメントを受け付けていません

Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models

要約 大規模言語モデル (LLM) の精度、効率、堅牢性を向上させるための、斬新 … 続きを読む

カテゴリー: cs.CL | Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models はコメントを受け付けていません

Characterizing Similarities and Divergences in Conversational Tones in Humans and LLMs by Sampling with People

要約 会話のトーン、つまり話者がコミュニケーションをとる際のマナーや態度は、効果 … 続きを読む

カテゴリー: cs.CL, cs.HC | Characterizing Similarities and Divergences in Conversational Tones in Humans and LLMs by Sampling with People はコメントを受け付けていません

What Languages are Easy to Language-Model? A Perspective from Learning Probabilistic Regular Languages

要約 大規模な言語モデルは何を学習できるのでしょうか? 定義上、言語モデル (L … 続きを読む

カテゴリー: cs.CL | What Languages are Easy to Language-Model? A Perspective from Learning Probabilistic Regular Languages はコメントを受け付けていません