cs.CL」カテゴリーアーカイブ

End-to-End Video Question Answering with Frame Scoring Mechanisms and Adaptive Sampling

要約 Video Question Answering (VideoQA) は、 … 続きを読む

カテゴリー: cs.CL, cs.CV | End-to-End Video Question Answering with Frame Scoring Mechanisms and Adaptive Sampling はコメントを受け付けていません

TokenSHAP: Interpreting Large Language Models with Monte Carlo Shapley Value Estimation

要約 大規模言語モデル (LLM) が重要なアプリケーションでますます普及するに … 続きを読む

カテゴリー: cs.CL | TokenSHAP: Interpreting Large Language Models with Monte Carlo Shapley Value Estimation はコメントを受け付けていません

Watermarks in the Sand: Impossibility of Strong Watermarking for Generative Models

要約 生成モデルに透かしを入れることは、出力が指定されたモデルによって生成された … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Watermarks in the Sand: Impossibility of Strong Watermarking for Generative Models はコメントを受け付けていません

From Black Boxes to Conversations: Incorporating XAI in a Conversational Agent

要約 Explainable AI (XAI) の目標は、人間に説明するために、 … 続きを読む

カテゴリー: cs.AI, cs.CL | From Black Boxes to Conversations: Incorporating XAI in a Conversational Agent はコメントを受け付けていません

Two Stacks Are Better Than One: A Comparison of Language Modeling and Translation as Multilingual Pretraining Objectives

要約 事前トレーニング済み言語モデル (PLM) は優れたパフォーマンスを示し、 … 続きを読む

カテゴリー: cs.CL | Two Stacks Are Better Than One: A Comparison of Language Modeling and Translation as Multilingual Pretraining Objectives はコメントを受け付けていません

EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation

要約 完全な多言語ニューラル機械翻訳 (C-MNMT) は、多方向に整列されたコ … 続きを読む

カテゴリー: cs.AI, cs.CL | EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation はコメントを受け付けていません

Refining Corpora from a Model Calibration Perspective for Chinese Spelling Correction

要約 中国語のスペル修正 (CSC) では、実際の人間の筆記やタイピングのシナリ … 続きを読む

カテゴリー: cs.CL | Refining Corpora from a Model Calibration Perspective for Chinese Spelling Correction はコメントを受け付けていません

Meta-Task Prompting Elicits Embeddings from Large Language Models

要約 モデルの微調整を必要とせずに大規模言語モデル (LLM) から高品質の文埋 … 続きを読む

カテゴリー: cs.CL | Meta-Task Prompting Elicits Embeddings from Large Language Models はコメントを受け付けていません

Fundamental Limits of Prompt Compression: A Rate-Distortion Framework for Black-Box Language Models

要約 私たちは、大規模言語モデル (LLM) のプロンプト圧縮の問題を形式化し、 … 続きを読む

カテゴリー: cs.CL, cs.IT, cs.LG, math.IT | Fundamental Limits of Prompt Compression: A Rate-Distortion Framework for Black-Box Language Models はコメントを受け付けていません

Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners

要約 大規模言語モデル (LLM) は、優れたパフォーマンスと堅牢な演繹機能を備 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners はコメントを受け付けていません