月別アーカイブ: 2023年9月

Content Reduction, Surprisal and Information Density Estimation for Long Documents

要約 言語の情報内容を研究するために、多くの計算言語学的手法が提案されています。 … 続きを読む

カテゴリー: cs.CL | Content Reduction, Surprisal and Information Density Estimation for Long Documents はコメントを受け付けていません

How does representation impact in-context learning: A exploration on a synthetic task

要約 インコンテキスト学習、つまりコンテキスト内のサンプルからの学習は、Tran … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | How does representation impact in-context learning: A exploration on a synthetic task はコメントを受け付けていません

RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic Program Repair

要約 自動プログラム修復 (APR) は、開発者の手動によるデバッグ作業を軽減し … 続きを読む

カテゴリー: cs.CL, cs.SE | RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic Program Repair はコメントを受け付けていません

BHASA: A Holistic Southeast Asian Linguistic and Cultural Evaluation Suite for Large Language Models

要約 大規模言語モデル (LLM) の急速な発展と、規模に応じた新しい機能の出現 … 続きを読む

カテゴリー: cs.CL | BHASA: A Holistic Southeast Asian Linguistic and Cultural Evaluation Suite for Large Language Models はコメントを受け付けていません

Measuring Catastrophic Forgetting in Cross-Lingual Transfer Paradigms: Exploring Tuning Strategies

要約 言語間の転送は、リソースの少ない言語でタスクを解決するための有望な手法です … 続きを読む

カテゴリー: cs.CL, cs.LG | Measuring Catastrophic Forgetting in Cross-Lingual Transfer Paradigms: Exploring Tuning Strategies はコメントを受け付けていません

Towards Visual Taxonomy Expansion

要約 分類法の拡張タスクは、増え続ける新しい概念を既存の分類法に体系化するために … 続きを読む

カテゴリー: cs.CL, cs.CV | Towards Visual Taxonomy Expansion はコメントを受け付けていません

Characterizing Latent Perspectives of Media Houses Towards Public Figures

要約 著名人について報道するメディア会社には、それぞれの世界観に由来する独自の偏 … 続きを読む

カテゴリー: cs.CL, cs.IR | Characterizing Latent Perspectives of Media Houses Towards Public Figures はコメントを受け付けていません

AstroLLaMA: Towards Specialized Foundation Models in Astronomy

要約 大規模な言語モデルは、多くの人間の言語タスクでは優れていますが、学術天文学 … 続きを読む

カテゴリー: astro-ph.CO, astro-ph.GA, astro-ph.HE, astro-ph.IM, cs.CL, cs.LG | AstroLLaMA: Towards Specialized Foundation Models in Astronomy はコメントを受け付けていません

Annotating Data for Fine-Tuning a Neural Ranker? Current Active Learning Strategies are not Better than Random Selection

要約 事前トレーニング済み言語モデル (PLM) に基づく検索方法は、統計モデル … 続きを読む

カテゴリー: cs.CL, cs.IR | Annotating Data for Fine-Tuning a Neural Ranker? Current Active Learning Strategies are not Better than Random Selection はコメントを受け付けていません

Prompting4Debugging: Red-Teaming Text-to-Image Diffusion Models by Finding Problematic Prompts

要約 テキストから画像への拡散モデル。 安定拡散 (SD) は、最近、高品質のコ … 続きを読む

カテゴリー: cs.CL, cs.CV | Prompting4Debugging: Red-Teaming Text-to-Image Diffusion Models by Finding Problematic Prompts はコメントを受け付けていません