I.2.7」カテゴリーアーカイブ

Heidelberg-Boston @ SIGTYP 2024 Shared Task: Enhancing Low-Resource Language Analysis With Character-Aware Hierarchical Transformers

要約 歴史的言語は、NLP コミュニティに特有の課題を提示しており、その顕著な障 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Heidelberg-Boston @ SIGTYP 2024 Shared Task: Enhancing Low-Resource Language Analysis With Character-Aware Hierarchical Transformers はコメントを受け付けていません

Jina CLIP: Your CLIP Model Is Also Your Text Retriever

要約 Contrastive Language-Image Pretrainin … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CV, cs.IR, I.2.7 | Jina CLIP: Your CLIP Model Is Also Your Text Retriever はコメントを受け付けていません

The Knesset Corpus: An Annotated Corpus of Hebrew Parliamentary Proceedings

要約 私たちは、1998 年から 2022 年の間にイスラエル議会で開催されたす … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | The Knesset Corpus: An Annotated Corpus of Hebrew Parliamentary Proceedings はコメントを受け付けていません

Unleashing the potential of prompt engineering: a comprehensive review

要約 この包括的なレビューでは、大規模言語モデル (LLM) とマルチモーダル言 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Unleashing the potential of prompt engineering: a comprehensive review はコメントを受け付けていません

Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey

要約 一般的なテキスト要約アプローチでは、個々のユーザーの特定の意図やニーズに対 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey はコメントを受け付けていません

Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey

要約 一般的なテキスト要約アプローチでは、個々のユーザーの特定の意図やニーズに対 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey はコメントを受け付けていません

ProSparse: Introducing and Enhancing Intrinsic Activation Sparsity within Large Language Models

要約 活性化の希薄性とは、活性化出力の中に寄与度が低い要素がかなり存在することを … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | ProSparse: Introducing and Enhancing Intrinsic Activation Sparsity within Large Language Models はコメントを受け付けていません

Benchmarking Pre-trained Large Language Models’ Potential Across Urdu NLP tasks

要約 多言語データで事前トレーニングされた大規模言語モデル (LLM) は、言語 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Benchmarking Pre-trained Large Language Models’ Potential Across Urdu NLP tasks はコメントを受け付けていません

MeteoRA: Multiple-tasks Embedded LoRA for Large Language Models

要約 事前トレーニング + 微調整パラダイムは、さまざまなダウンストリーム アプ … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | MeteoRA: Multiple-tasks Embedded LoRA for Large Language Models はコメントを受け付けていません

GPT is Not an Annotator: The Necessity of Human Annotation in Fairness Benchmark Construction

要約 LLM の社会的バイアスは、通常、バイアス ベンチマーク データセットを通 … 続きを読む

カテゴリー: cs.CL, cs.CY, I.2.7 | GPT is Not an Annotator: The Necessity of Human Annotation in Fairness Benchmark Construction はコメントを受け付けていません