I.2.7」カテゴリーアーカイブ

SUBLLM: A Novel Efficient Architecture with Token Sequence Subsampling for LLM

要約 大規模言語モデル (LLM) はさまざまな分野で目覚ましい成功を収めていま … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | SUBLLM: A Novel Efficient Architecture with Token Sequence Subsampling for LLM はコメントを受け付けていません

SUBLLM: A Novel Efficient Architecture with Token Sequence Subsampling for LLM

要約 大規模言語モデル (LLM) はさまざまな分野で目覚ましい成功を収めていま … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | SUBLLM: A Novel Efficient Architecture with Token Sequence Subsampling for LLM はコメントを受け付けていません

Controllable Text Generation for Large Language Models: A Survey

要約 自然言語処理 (NLP) では、大規模言語モデル (LLM) が高いテキス … 続きを読む

カテゴリー: cs.CL, I.2.7 | Controllable Text Generation for Large Language Models: A Survey はコメントを受け付けていません

Drama Engine: A Framework for Narrative Agents

要約 この技術レポートでは、物語を目的として設計された大規模な言語モデルとのエー … 続きを読む

カテゴリー: (Primary), 68T50, cs.AI, cs.CL, I.2.7 | Drama Engine: A Framework for Narrative Agents はコメントを受け付けていません

Xinyu: An Efficient LLM-based System for Commentary Generation

要約 解説では、さまざまな議論や証拠を提示することで、読者に出来事についての深い … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Xinyu: An Efficient LLM-based System for Commentary Generation はコメントを受け付けていません

Paired Completion: Flexible Quantification of Issue-framing at Scale with LLMs

要約 テキストによる談話における問題の枠組み、つまり特定のトピック(気候科学対否 … 続きを読む

カテゴリー: cs.AI, cs.CL, econ.GN, I.2.7, q-fin.EC | Paired Completion: Flexible Quantification of Issue-framing at Scale with LLMs はコメントを受け付けていません

Advancing Voice Cloning for Nepali: Leveraging Transfer Learning in a Low-Resource Language

要約 音声クローン作成は、パーソナライズされた音声インターフェイスの顕著な機能で … 続きを読む

カテゴリー: 91F20, cs.AI, cs.LG, cs.SD, eess.AS, I.2.7 | Advancing Voice Cloning for Nepali: Leveraging Transfer Learning in a Low-Resource Language はコメントを受け付けていません

Fine-Tuned ‘Small’ LLMs (Still) Significantly Outperform Zero-Shot Generative AI Models in Text Classification

要約 Generative AI は、テキスト分類タスク用に小規模な BERT … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Fine-Tuned ‘Small’ LLMs (Still) Significantly Outperform Zero-Shot Generative AI Models in Text Classification はコメントを受け付けていません

Direct Large Language Model Alignment Through Self-Rewarding Contrastive Prompt Distillation

要約 人間が注釈を付けた嗜好データを使用せずに、大規模言語モデル (LLM) を … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Direct Large Language Model Alignment Through Self-Rewarding Contrastive Prompt Distillation はコメントを受け付けていません

Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners

要約 大規模言語モデル (LLM) は、優れたパフォーマンスと堅牢な演繹機能を備 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners はコメントを受け付けていません