月別アーカイブ: 2024年5月

Single and Multi-Hop Question-Answering Datasets for Reticular Chemistry with GPT-4-Turbo

要約 人工知能と自然言語処理の急速な進歩により、機械学習モデルの性能ベンチマーク … 続きを読む

カテゴリー: cond-mat.mtrl-sci, cs.CL | Single and Multi-Hop Question-Answering Datasets for Reticular Chemistry with GPT-4-Turbo はコメントを受け付けていません

Unveiling the Potential of LLM-Based ASR on Chinese Open-Source Datasets

要約 大規模言語モデルは様々な自然言語処理タスクにおいて比類のない有効性を実証し … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Unveiling the Potential of LLM-Based ASR on Chinese Open-Source Datasets はコメントを受け付けていません

Optimising Calls to Large Language Models with Uncertainty-Based Two-Tier Selection

要約 限られた予算の中で活動している研究者や実務家は、コストと性能のトレードオフ … 続きを読む

カテゴリー: cs.CL | Optimising Calls to Large Language Models with Uncertainty-Based Two-Tier Selection はコメントを受け付けていません

MedReadMe: A Systematic Study for Fine-grained Sentence Readability in Medical Domain

要約 医学書は読みにくいことで有名である。読みやすさを適切に測定することは、より … 続きを読む

カテゴリー: cs.CL | MedReadMe: A Systematic Study for Fine-grained Sentence Readability in Medical Domain はコメントを受け付けていません

Impact of emoji exclusion on the performance of Arabic sarcasm detection models

要約 ソーシャルメディア上のアラビア語音声から皮肉を検出するという複雑な課題は、 … 続きを読む

カテゴリー: cs.CL, cs.LG | Impact of emoji exclusion on the performance of Arabic sarcasm detection models はコメントを受け付けていません

Sowing the Wind, Reaping the Whirlwind: The Impact of Editing Language Models

要約 急速に進歩する人工知能の分野において、大規模言語モデル(LLM)のレッドチ … 続きを読む

カテゴリー: cs.CL | Sowing the Wind, Reaping the Whirlwind: The Impact of Editing Language Models はコメントを受け付けていません

PSentScore: Evaluating Sentiment Polarity in Dialogue Summarization

要約 自動対話要約は、人間の会話から最も重要な情報を抽出し、簡潔なテキスト要約に … 続きを読む

カテゴリー: cs.CL | PSentScore: Evaluating Sentiment Polarity in Dialogue Summarization はコメントを受け付けていません

LUCID: LLM-Generated Utterances for Complex and Interesting Dialogues

要約 最近の大規模言語モデル(LLM)の進歩に後押しされ、バーチャルアシスタント … 続きを読む

カテゴリー: cs.CL, I.2.7 | LUCID: LLM-Generated Utterances for Complex and Interesting Dialogues はコメントを受け付けていません

Structural Pruning of Pre-trained Language Models via Neural Architecture Search

要約 BERTやRoBERTaのような事前訓練された言語モデル(PLM)は、ラベ … 続きを読む

カテゴリー: cs.CL, cs.LG | Structural Pruning of Pre-trained Language Models via Neural Architecture Search はコメントを受け付けていません

Zero-Sum Positional Differential Games as a Framework for Robust Reinforcement Learning: Deep Q-Learning Approach

要約 ロバスト強化学習(RRL)は、不確実性や擾乱に対してロバストなモデルを学習 … 続きを読む

カテゴリー: 49N70, 68T07, cs.AI, cs.GT, cs.LG, cs.SY, eess.SY, math.OC | Zero-Sum Positional Differential Games as a Framework for Robust Reinforcement Learning: Deep Q-Learning Approach はコメントを受け付けていません