cs.CL」カテゴリーアーカイブ

A Practical Guide to Fine-tuning Language Models with Limited Data

要約 事前トレーニングされた大規模言語モデル (LLM) の採用は、膨大なデータ … 続きを読む

カテゴリー: cs.CL, cs.LG | A Practical Guide to Fine-tuning Language Models with Limited Data はコメントを受け付けていません

BabyLM Challenge: Exploring the Effect of Variation Sets on Language Model Training Efficiency

要約 現在の大規模言語モデルは目覚ましい成功を収めていますが、そのデータ効率は依 … 続きを読む

カテゴリー: cs.CL | BabyLM Challenge: Exploring the Effect of Variation Sets on Language Model Training Efficiency はコメントを受け付けていません

Initial Nugget Evaluation Results for the TREC 2024 RAG Track with the AutoNuggetizer Framework

要約 このレポートは、TREC 2024 検索拡張生成 (RAG) トラックから … 続きを読む

カテゴリー: cs.CL, cs.IR | Initial Nugget Evaluation Results for the TREC 2024 RAG Track with the AutoNuggetizer Framework はコメントを受け付けていません

The Moral Foundations Weibo Corpus

要約 自然言語で表現される道徳的感情は、オンライン環境とオフライン環境の両方に大 … 続きを読む

カテゴリー: cs.CL, cs.LG | The Moral Foundations Weibo Corpus はコメントを受け付けていません

Value Residual Learning For Alleviating Attention Concentration In Transformers

要約 トランスフォーマーはセルフアテンションを使用して長距離の依存関係をキャプチ … 続きを読む

カテゴリー: cs.CL | Value Residual Learning For Alleviating Attention Concentration In Transformers はコメントを受け付けていません

VRSD: Rethinking Similarity and Diversity for Retrieval in Large Language Models

要約 ベクトル検索アルゴリズムは、急速に進化する大規模言語モデル (LLM) 環 … 続きを読む

カテゴリー: cs.CL, cs.IR | VRSD: Rethinking Similarity and Diversity for Retrieval in Large Language Models はコメントを受け付けていません

AutoDefense: Multi-Agent LLM Defense against Jailbreak Attacks

要約 有害な情報の生成を防ぐために道徳的調整に関する広範な事前トレーニングが行わ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | AutoDefense: Multi-Agent LLM Defense against Jailbreak Attacks はコメントを受け付けていません

Verifiable by Design: Aligning Language Models to Quote from Pre-Training Data

要約 Fluent 世代の大規模言語モデル (LLM) を信頼するには、人間が信 … 続きを読む

カテゴリー: cs.CL | Verifiable by Design: Aligning Language Models to Quote from Pre-Training Data はコメントを受け付けていません

Adaptive Decoding via Latent Preference Optimization

要約 言語モデルのデコード中、より高い温度のサンプリングを使用するとより創造的な … 続きを読む

カテゴリー: cs.CL | Adaptive Decoding via Latent Preference Optimization はコメントを受け付けていません

Squeezed Attention: Accelerating Long Context Length LLM Inference

要約 新しい大規模言語モデル (LLM) アプリケーションでは、ドキュメント分析 … 続きを読む

カテゴリー: cs.CL | Squeezed Attention: Accelerating Long Context Length LLM Inference はコメントを受け付けていません