月別アーカイブ: 2023年7月

Distilling Large Vision-Language Model with Out-of-Distribution Generalizability

要約 大規模なビジョン言語モデルは優れたパフォーマンスを達成していますが、そのサ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Distilling Large Vision-Language Model with Out-of-Distribution Generalizability はコメントを受け付けていません

RaTE: a Reproducible automatic Taxonomy Evaluation by Filling the Gap

要約 タクソノミーは必須の知識表現ですが、自動タクソノミー構築 (ATC) に関 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | RaTE: a Reproducible automatic Taxonomy Evaluation by Filling the Gap はコメントを受け付けていません

Enhancing conversational quality in language learning chatbots: An evaluation of GPT4 for ASR error correction

要約 自然言語処理 (NLP) テクノロジーを教育アプリケーションに統合すると、 … 続きを読む

カテゴリー: cs.AI, cs.CL | Enhancing conversational quality in language learning chatbots: An evaluation of GPT4 for ASR error correction はコメントを受け付けていません

GEmo-CLAP: Gender-Attribute-Enhanced Contrastive Language-Audio Pretraining for Speech Emotion Recognition

要約 対照学習に基づくクロスモダリティ事前トレーニング手法は、最近、さまざまな分 … 続きを読む

カテゴリー: cs.CL, cs.MM, cs.SD, eess.AS | GEmo-CLAP: Gender-Attribute-Enhanced Contrastive Language-Audio Pretraining for Speech Emotion Recognition はコメントを受け付けていません

Understand Legal Documents with Contextualized Large Language Models

要約 インドなどの人口の多い国では係争中の訴訟件数が増加しており、大きな問題とな … 続きを読む

カテゴリー: cs.CL | Understand Legal Documents with Contextualized Large Language Models はコメントを受け付けていません

Lego-MT: Learning Detachable Models for Massively Multilingual Machine Translation

要約 多言語ニューラル機械翻訳 (MNMT) は、多くの言語方向に対応する統一モ … 続きを読む

カテゴリー: cs.AI, cs.CL | Lego-MT: Learning Detachable Models for Massively Multilingual Machine Translation はコメントを受け付けていません

Retentive Network: A Successor to Transformer for Large Language Models

要約 この研究では、大規模な言語モデルの基礎アーキテクチャとして Retenti … 続きを読む

カテゴリー: cs.CL, cs.LG | Retentive Network: A Successor to Transformer for Large Language Models はコメントを受け付けていません

Can In-context Learners Learn a Reasoning Concept from Demonstrations?

要約 言語モデルは、少数の入出力デモンストレーションから新しいタスクを学習する創 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Can In-context Learners Learn a Reasoning Concept from Demonstrations? はコメントを受け付けていません

ZeroQuant-FP: A Leap Forward in LLMs Post-Training W4A8 Quantization Using Floating-Point Formats

要約 大規模言語モデル (LLM) の複雑な領域では、計算効率とモデルの品質維持 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ZeroQuant-FP: A Leap Forward in LLMs Post-Training W4A8 Quantization Using Floating-Point Formats はコメントを受け付けていません

On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models

要約 2022 年後半以降、大規模言語モデル (LLM) が非常に目立つようにな … 続きを読む

カテゴリー: cs.CL, cs.DL, I.2.1 | On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models はコメントを受け付けていません