月別アーカイブ: 2023年6月

FormNetV2: Multimodal Graph Contrastive Learning for Form Document Information Extraction

要約 最近の自己教師付き事前トレーニング技術の出現により、フォーム文書の理解にお … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | FormNetV2: Multimodal Graph Contrastive Learning for Form Document Information Extraction はコメントを受け付けていません

TART: A plug-and-play Transformer module for task-agnostic reasoning

要約 大規模言語モデル (LLM) は、タスク固有のトレーニングなしで同じモデル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | TART: A plug-and-play Transformer module for task-agnostic reasoning はコメントを受け付けていません

Revealing the Blind Spot of Sentence Encoder Evaluation by HEROS

要約 既存の文テキスト類似性ベンチマーク データセットは、文エンコーダーの決定が … 続きを読む

カテゴリー: cs.CL | Revealing the Blind Spot of Sentence Encoder Evaluation by HEROS はコメントを受け付けていません

DyGen: Learning from Noisy Labels via Dynamics-Enhanced Generative Modeling

要約 ノイズの多いラベルから学習することは、トレーニング データに不正確または破 … 続きを読む

カテゴリー: cs.CL, cs.LG | DyGen: Learning from Noisy Labels via Dynamics-Enhanced Generative Modeling はコメントを受け付けていません

HAUSER: Towards Holistic and Automatic Evaluation of Simile Generation

要約 直喩は、ストーリーや会話の生成などのクリエイティブなライティングにおいて重 … 続きを読む

カテゴリー: cs.CL | HAUSER: Towards Holistic and Automatic Evaluation of Simile Generation はコメントを受け付けていません

PaCE: Unified Multi-modal Dialogue Pre-training with Progressive and Compositional Experts

要約 マルチモーダルな情報を認識し、人間との対話を実現することは、人工知能の長期 … 続きを読む

カテゴリー: cs.CL, cs.CV | PaCE: Unified Multi-modal Dialogue Pre-training with Progressive and Compositional Experts はコメントを受け付けていません

Large Language Models Sometimes Generate Purely Negatively-Reinforced Text

要約 敵対的トレーニングを使用する場合、最もひどい失敗に対してトレーニングするの … 続きを読む

カテゴリー: cs.CL, cs.LG | Large Language Models Sometimes Generate Purely Negatively-Reinforced Text はコメントを受け付けていません

Transformer-based Text Classification on Unified Bangla Multi-class Emotion Corpus

要約 この研究では、バングラ語のテキストから感情を特定し、抽出するための完全なア … 続きを読む

カテゴリー: cs.CL | Transformer-based Text Classification on Unified Bangla Multi-class Emotion Corpus はコメントを受け付けていません

OWQ: Lessons learned from activation outliers for weight quantization in large language models

要約 数千億のパラメータを持つ大規模言語モデル (LLM) は、タスク固有の微調 … 続きを読む

カテゴリー: cs.CL | OWQ: Lessons learned from activation outliers for weight quantization in large language models はコメントを受け付けていません

Question Decomposition Tree for Answering Complex Questions over Knowledge Bases

要約 ナレッジ ベースの質問応答 (KBQA) は、近年、特に複数の事実を回答す … 続きを読む

カテゴリー: cs.CL | Question Decomposition Tree for Answering Complex Questions over Knowledge Bases はコメントを受け付けていません