月別アーカイブ: 2023年6月

Second Language Acquisition of Neural Language Models

要約 神経言語モデル (LM) の成功により、その言語習得は大きな注目を集めてい … 続きを読む

カテゴリー: cs.CL | Second Language Acquisition of Neural Language Models はコメントを受け付けていません

MidMed: Towards Mixed-Type Dialogues for Medical Consultation

要約 ほとんどの医療対話システムは、医療相談の前に患者が明確な目的 (薬の問い合 … 続きを読む

カテゴリー: cs.CL | MidMed: Towards Mixed-Type Dialogues for Medical Consultation はコメントを受け付けていません

A Simple and Flexible Modeling for Mental Disorder Detection by Learning from Clinical Questionnaires

要約 ソーシャル メディアは、ユーザーが言語の特徴を分析するために最も需要の高い … 続きを読む

カテゴリー: cs.CL, cs.LG | A Simple and Flexible Modeling for Mental Disorder Detection by Learning from Clinical Questionnaires はコメントを受け付けていません

PolyVoice: Language Models for Speech to Speech Translation

要約 私たちは、言語モデルベースの音声翻訳 (S2ST) システムのフレームワー … 続きを読む

カテゴリー: cs.CL, eess.AS | PolyVoice: Language Models for Speech to Speech Translation はコメントを受け付けていません

Evaluating Inter-Bilingual Semantic Parsing for Indian Languages

要約 インド言語の自然言語生成 (IndicNLP) は大幅に進歩しているにもか … 続きを読む

カテゴリー: cs.CL | Evaluating Inter-Bilingual Semantic Parsing for Indian Languages はコメントを受け付けていません

PokemonChat: Auditing ChatGPT for Pokémon Universe Knowledge

要約 最近リリースされた ChatGPT モデルは、ゼロショット質問応答において … 続きを読む

カテゴリー: cs.CL | PokemonChat: Auditing ChatGPT for Pokémon Universe Knowledge はコメントを受け付けていません

Benchmarking Large Language Models on CMExam — A Comprehensive Chinese Medical Exam Dataset

要約 大規模言語モデル (LLM) の最近の進歩により、質問応答 (QA) の分 … 続きを読む

カテゴリー: cs.CL | Benchmarking Large Language Models on CMExam — A Comprehensive Chinese Medical Exam Dataset はコメントを受け付けていません

Analyzing Syntactic Generalization Capacity of Pre-trained Language Models on Japanese Honorific Conversion

要約 日本語の敬語を使うには、文法的なルールだけでなく、社会的な関係などの文脈的 … 続きを読む

カテゴリー: cs.CL | Analyzing Syntactic Generalization Capacity of Pre-trained Language Models on Japanese Honorific Conversion はコメントを受け付けていません

In-context Example Selection with Influences

要約 インコンテキスト学習(ICL)は、大規模言語モデル(LLM)から生まれた強 … 続きを読む

カテゴリー: cs.CL, cs.LG | In-context Example Selection with Influences はコメントを受け付けていません

SpQR: A Sparse-Quantized Representation for Near-Lossless LLM Weight Compression

要約 近年の大規模言語モデル(LLM)事前学習の進歩により、素晴らしい能力を持つ … 続きを読む

カテゴリー: cs.CL, cs.LG | SpQR: A Sparse-Quantized Representation for Near-Lossless LLM Weight Compression はコメントを受け付けていません