I.2.7」カテゴリーアーカイブ

Missing Information, Unresponsive Authors, Experimental Flaws: The Impossibility of Assessing the Reproducibility of Previous Human Evaluations in NLP

要約 我々は、何が NLP における人間の評価の再現性を高めるか、あるいは低下さ … 続きを読む

カテゴリー: 68, cs.CL, I.2.7 | Missing Information, Unresponsive Authors, Experimental Flaws: The Impossibility of Assessing the Reproducibility of Previous Human Evaluations in NLP はコメントを受け付けていません

Knowledge-preserving Pruning for Pre-trained Language Models without Retraining

要約 事前にトレーニングされた言語モデルが与えられた場合、再トレーニングせずにそ … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Knowledge-preserving Pruning for Pre-trained Language Models without Retraining はコメントを受け付けていません

Baby Llama: knowledge distillation from an ensemble of teachers trained on a small dataset with no performance penalty

要約 BabyLMチャレンジ[arXiv:2301.11796]は、言語モデルの … 続きを読む

カテゴリー: cs.CL, I.2.7 | Baby Llama: knowledge distillation from an ensemble of teachers trained on a small dataset with no performance penalty はコメントを受け付けていません

Explaining Relation Classification Models with Semantic Extents

要約 近年、BERTやGPTなどの大規模な事前学習済み言語モデルの開発により、関 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Explaining Relation Classification Models with Semantic Extents はコメントを受け付けていません

UPB at IberLEF-2023 AuTexTification: Detection of Machine-Generated Text using Transformer Ensembles

要約 本稿では、IberLEF-2023の一環として開催されたAuTexTifi … 続きを読む

カテゴリー: cs.CL, I.2.7 | UPB at IberLEF-2023 AuTexTification: Detection of Machine-Generated Text using Transformer Ensembles はコメントを受け付けていません

A Private Watermark for Large Language Models

要約 最近、大規模言語モデル (LLM) 用のテキスト透かしアルゴリズムにより、 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | A Private Watermark for Large Language Models はコメントを受け付けていません

Fine-tuning Happens in Tiny Subspaces: Exploring Intrinsic Task-specific Subspaces of Pre-trained Language Models

要約 事前トレーニング済み言語モデル (PLM) は過度にパラメーター化されてお … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2.7 | Fine-tuning Happens in Tiny Subspaces: Exploring Intrinsic Task-specific Subspaces of Pre-trained Language Models はコメントを受け付けていません

mCPT at SemEval-2023 Task 3: Multilingual Label-Aware Contrastive Pre-Training of Transformers for Few- and Zero-shot Framing Detection

要約 この論文では、スペイン語のゼロショット フレーミング検出タスクで優勝したシ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | mCPT at SemEval-2023 Task 3: Multilingual Label-Aware Contrastive Pre-Training of Transformers for Few- and Zero-shot Framing Detection はコメントを受け付けていません

The potential of LLMs for coding with low-resource and domain-specific programming languages

要約 この論文では、通常、効果的な LLM 処理技術に必要なデータ量が不足してい … 続きを読む

カテゴリー: cs.CL, cs.SE, I.2.7 | The potential of LLMs for coding with low-resource and domain-specific programming languages はコメントを受け付けていません

Towards Bridging the Digital Language Divide

要約 現在の AI ベースの言語テクノロジー (言語モデル、機械翻訳システム、多 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Towards Bridging the Digital Language Divide はコメントを受け付けていません