月別アーカイブ: 2023年6月

Soft Language Clustering for Multilingual Model Pre-training

要約 多言語の事前トレーニング済み言語モデルは、優れた (ゼロショットの) 言語 … 続きを読む

カテゴリー: cs.CL | Soft Language Clustering for Multilingual Model Pre-training はコメントを受け付けていません

Rank-Aware Negative Training for Semi-Supervised Text Classification

要約 半教師ありテキスト分類ベースのパラダイム (SSTC) では、通常、自己ト … 続きを読む

カテゴリー: cs.CL | Rank-Aware Negative Training for Semi-Supervised Text Classification はコメントを受け付けていません

Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language Models — and Disappeared in GPT-4

要約 大規模言語モデル (LLM) は現在、AI システムを人間のコミュニケーシ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language Models — and Disappeared in GPT-4 はコメントを受け付けていません

SqueezeLLM: Dense-and-Sparse Quantization

要約 生成大規模言語モデル (LLM) は、幅広いタスクに対して顕著な結果を示し … 続きを読む

カテゴリー: cs.CL, cs.LG | SqueezeLLM: Dense-and-Sparse Quantization はコメントを受け付けていません

LM-CPPF: Paraphrasing-Guided Data Augmentation for Contrastive Prompt-Based Few-Shot Fine-Tuning

要約 近年、NLP 用の事前トレーニング済み言語モデルの開発が大幅に進歩しました … 続きを読む

カテゴリー: cs.CL | LM-CPPF: Paraphrasing-Guided Data Augmentation for Contrastive Prompt-Based Few-Shot Fine-Tuning はコメントを受け付けていません

Hybrid lemmatization in HuSpaCy

要約 見出し語化は、形態学的に豊富な言語にとって依然として簡単な作業ではありませ … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Hybrid lemmatization in HuSpaCy はコメントを受け付けていません

Modality Adaption or Regularization? A Case Study on End-to-End Speech Translation

要約 事前トレーニングと微調整は、エンドツーエンド音声翻訳 (E2E ST) に … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Modality Adaption or Regularization? A Case Study on End-to-End Speech Translation はコメントを受け付けていません

Is Anisotropy Inherent to Transformers?

要約 表現縮退問題は、Transformers に基づく自己教師あり学習手法の間 … 続きを読む

カテゴリー: cs.CL | Is Anisotropy Inherent to Transformers? はコメントを受け付けていません

xCodeEval: A Large Scale Multilingual Multitask Benchmark for Code Understanding, Generation, Translation and Retrieval

要約 問題の解決策としてコードを作成したり、開発者のコ​​ード作成を支援したりで … 続きを読む

カテゴリー: cs.CL | xCodeEval: A Large Scale Multilingual Multitask Benchmark for Code Understanding, Generation, Translation and Retrieval はコメントを受け付けていません

PromptBench: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts

要約 学術界や業界全体で大規模言語モデル (LLM) への依存度が高まっているた … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | PromptBench: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts はコメントを受け付けていません