月別アーカイブ: 2023年7月

ContextSpeech: Expressive and Efficient Text-to-Speech for Paragraph Reading

要約 最先端の Text-to-Speech システムは、文レベルで非常に高品質 … 続きを読む

カテゴリー: cs.AI, cs.CL, eess.AS | ContextSpeech: Expressive and Efficient Text-to-Speech for Paragraph Reading はコメントを受け付けていません

Evaluating Shutdown Avoidance of Language Models in Textual Scenarios

要約 最近、緊急かつ危険な機能について大規模な言語モデルを評価することへの関心が … 続きを読む

カテゴリー: cs.AI, cs.CL | Evaluating Shutdown Avoidance of Language Models in Textual Scenarios はコメントを受け付けていません

VOLTA: Diverse and Controllable Question-Answer Pair Generation with Variational Mutual Information Maximizing Autoencoder

要約 これまでの質問と回答のペア生成方法は、流暢で意味のある質問と回答のペアを生 … 続きを読む

カテゴリー: cs.CL | VOLTA: Diverse and Controllable Question-Answer Pair Generation with Variational Mutual Information Maximizing Autoencoder はコメントを受け付けていません

UniFine: A Unified and Fine-grained Approach for Zero-shot Vision-Language Understanding

要約 VQA、SNLI-VE、VCR などの視覚言語タスクは、視覚世界と自然言語 … 続きを読む

カテゴリー: cs.CL, cs.CV | UniFine: A Unified and Fine-grained Approach for Zero-shot Vision-Language Understanding はコメントを受け付けていません

Data-Driven Information Extraction and Enrichment of Molecular Profiling Data for Cancer Cell Lines

要約 研究手段と計算手法の普及に伴い、出版される生物医学文献の数と量は飛躍的に増 … 続きを読む

カテゴリー: cs.CE, cs.CL, cs.DB | Data-Driven Information Extraction and Enrichment of Molecular Profiling Data for Cancer Cell Lines はコメントを受け付けていません

Towards Suicide Prevention from Bipolar Disorder with Temporal Symptom-Aware Multitask Learning

要約 双極性障害 (BD) は、自殺のリスク増加と密接に関連しています。 しかし … 続きを読む

カテゴリー: cs.CL | Towards Suicide Prevention from Bipolar Disorder with Temporal Symptom-Aware Multitask Learning はコメントを受け付けていません

Estimating Post-OCR Denoising Complexity on Numerical Texts

要約 OCR 後の処理は、過去数年間で大幅に改善されました。 ただし、これらは、 … 続きを読む

カテゴリー: cs.CL | Estimating Post-OCR Denoising Complexity on Numerical Texts はコメントを受け付けていません

Analyzing Multiple-Choice Reading and Listening Comprehension Tests

要約 多肢選択式の読解力テストと聴解力テストは、言語評価の重要な部分です。 標準 … 続きを読む

カテゴリー: cs.CL | Analyzing Multiple-Choice Reading and Listening Comprehension Tests はコメントを受け付けていません

Improving Language Plasticity via Pretraining with Active Forgetting

要約 事前トレーニング済み言語モデル (PLM) は、現在、自然言語処理の主要な … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.NE | Improving Language Plasticity via Pretraining with Active Forgetting はコメントを受け付けていません

Trainable Transformer in Transformer

要約 最近の研究では、大規模な事前トレーニング済み言語モデルにおけるインコンテキ … 続きを読む

カテゴリー: cs.CL, cs.LG | Trainable Transformer in Transformer はコメントを受け付けていません