cs.CL」カテゴリーアーカイブ

Data Mixture Inference: What do BPE Tokenizers Reveal about their Training Data?

要約 現在の最強の言語モデルの事前トレーニング データは不透明です。 特に、さま … 続きを読む

カテゴリー: cs.CL, cs.LG | Data Mixture Inference: What do BPE Tokenizers Reveal about their Training Data? はコメントを受け付けていません

LAST: Language Model Aware Speech Tokenization

要約 音声トークン化は音声言語モデル (LM) の基礎として機能し、音声言語モデ … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | LAST: Language Model Aware Speech Tokenization はコメントを受け付けていません

RAG based Question-Answering for Contextual Response Prediction System

要約 大規模言語モデル (LLM) は、効果的な質問応答システムとしての可能性を … 続きを読む

カテゴリー: cs.CL, cs.IR | RAG based Question-Answering for Contextual Response Prediction System はコメントを受け付けていません

Attention Heads of Large Language Models: A Survey

要約 ChatGPT の出現以来、大規模言語モデル (LLM) はさまざまなタス … 続きを読む

カテゴリー: cs.CL | Attention Heads of Large Language Models: A Survey はコメントを受け付けていません

CogniDual Framework: Self-Training Large Language Models within a Dual-System Theoretical Framework for Improving Cognitive Tasks

要約 認知心理学では、知覚、注意、記憶、言語、問題解決、意思決定、推論を研究しま … 続きを読む

カテゴリー: cs.AI, cs.CL | CogniDual Framework: Self-Training Large Language Models within a Dual-System Theoretical Framework for Improving Cognitive Tasks はコメントを受け付けていません

A review on the use of large language models as virtual tutors

要約 Transformer アーキテクチャは、自然言語処理の長期的な依存関係の … 続きを読む

カテゴリー: cs.AI, cs.CL | A review on the use of large language models as virtual tutors はコメントを受け付けていません

Exposing and Explaining Fake News On-the-Fly

要約 ソーシャル メディア プラットフォームにより、情報の迅速な普及と消費が可能 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SI | Exposing and Explaining Fake News On-the-Fly はコメントを受け付けていません

Temporal Order Preserved Optimal Transport-based Cross-modal Knowledge Transfer Learning for ASR

要約 言語知識を事前学習済み言語モデル (PLM) から音響モデルに転送すると、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | Temporal Order Preserved Optimal Transport-based Cross-modal Knowledge Transfer Learning for ASR はコメントを受け付けていません

Fine-tuning large language models for domain adaptation: Exploration of training strategies, scaling, model merging and synergistic capabilities

要約 材料科学や工学などの分野におけるドメイン アプリケーション向けの大規模言語 … 続きを読む

カテゴリー: cond-mat.mtrl-sci, cs.AI, cs.CL | Fine-tuning large language models for domain adaptation: Exploration of training strategies, scaling, model merging and synergistic capabilities はコメントを受け付けていません

Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review

要約 この包括的なレビューでは、大規模言語モデル (LLM) の機能を解放する際 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review はコメントを受け付けていません