月別アーカイブ: 2023年5月

LLM-powered Data Augmentation for Enhanced Crosslingual Performance

要約 この論文は、利用可能なトレーニング データが非常に限られている、言語を超え … 続きを読む

カテゴリー: cs.CL | LLM-powered Data Augmentation for Enhanced Crosslingual Performance はコメントを受け付けていません

Evaluation of African American Language Bias in Natural Language Generation

要約 私たちは、LLM がアフリカ系アメリカ人言語 (AAL) をどの程度理解し … 続きを読む

カテゴリー: cs.CL | Evaluation of African American Language Bias in Natural Language Generation はコメントを受け付けていません

WikiChat: A Few-Shot LLM-Based Chatbot Grounded with Wikipedia

要約 大規模言語モデル (LLM) の最近の進歩にも関わらず、ユーザーは依然とし … 続きを読む

カテゴリー: cs.CL | WikiChat: A Few-Shot LLM-Based Chatbot Grounded with Wikipedia はコメントを受け付けていません

WebIE: Faithful and Robust Information Extraction on the Web

要約 生のテキストから構造化され根拠のある事実トリプルを抽出することは、情報抽出 … 続きを読む

カテゴリー: cs.CL | WebIE: Faithful and Robust Information Extraction on the Web はコメントを受け付けていません

USB: A Unified Summarization Benchmark Across Tasks and Domains

要約 要約生成のタスクでモデルをトレーニングおよび評価するためのデータセットが豊 … 続きを読む

カテゴリー: cs.CL, cs.LG | USB: A Unified Summarization Benchmark Across Tasks and Domains はコメントを受け付けていません

QTSumm: A New Benchmark for Query-Focused Table Summarization

要約 ユーザーは主にテーブルを参照して、データ分析を行ったり、特定の質問に答えた … 続きを読む

カテゴリー: cs.CL | QTSumm: A New Benchmark for Query-Focused Table Summarization はコメントを受け付けていません

Navigating Prompt Complexity for Zero-Shot Classification: A Study of Large Language Models in Computational Social Science

要約 命令調整された大規模言語モデル (LLM) は、優れた言語理解力と、特定の … 続きを読む

カテゴリー: cs.CL | Navigating Prompt Complexity for Zero-Shot Classification: A Study of Large Language Models in Computational Social Science はコメントを受け付けていません

CREATOR: Disentangling Abstract and Concrete Reasonings of Large Language Models through Tool Creation

要約 大規模言語モデル (LLM) は、さまざまなタスクのツールとして外部 AP … 続きを読む

カテゴリー: cs.CL | CREATOR: Disentangling Abstract and Concrete Reasonings of Large Language Models through Tool Creation はコメントを受け付けていません

ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings

要約 我々は、ConGraT(Contrastive Graph-Text pr … 続きを読む

カテゴリー: cs.CL | ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings はコメントを受け付けていません

RET-LLM: Towards a General Read-Write Memory for Large Language Models

要約 大規模言語モデル (LLM) は、その広範なパラメーターと包括的なデータ利 … 続きを読む

カテゴリー: cs.CL | RET-LLM: Towards a General Read-Write Memory for Large Language Models はコメントを受け付けていません