I.2.7」カテゴリーアーカイブ

The Knesset Corpus: An Annotated Corpus of Hebrew Parliamentary Proceedings

要約 私たちは、1998 年から 2022 年の間にイスラエル議会で開催されたす … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | The Knesset Corpus: An Annotated Corpus of Hebrew Parliamentary Proceedings はコメントを受け付けていません

Unleashing the potential of prompt engineering: a comprehensive review

要約 この包括的なレビューでは、大規模言語モデル (LLM) とマルチモーダル言 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Unleashing the potential of prompt engineering: a comprehensive review はコメントを受け付けていません

Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey

要約 一般的なテキスト要約アプローチでは、個々のユーザーの特定の意図やニーズに対 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey はコメントを受け付けていません

Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey

要約 一般的なテキスト要約アプローチでは、個々のユーザーの特定の意図やニーズに対 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Controllable Text Summarization: Unraveling Challenges, Approaches, and Prospects — A Survey はコメントを受け付けていません

ProSparse: Introducing and Enhancing Intrinsic Activation Sparsity within Large Language Models

要約 活性化の希薄性とは、活性化出力の中に寄与度が低い要素がかなり存在することを … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | ProSparse: Introducing and Enhancing Intrinsic Activation Sparsity within Large Language Models はコメントを受け付けていません

Benchmarking Pre-trained Large Language Models’ Potential Across Urdu NLP tasks

要約 多言語データで事前トレーニングされた大規模言語モデル (LLM) は、言語 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Benchmarking Pre-trained Large Language Models’ Potential Across Urdu NLP tasks はコメントを受け付けていません

MeteoRA: Multiple-tasks Embedded LoRA for Large Language Models

要約 事前トレーニング + 微調整パラダイムは、さまざまなダウンストリーム アプ … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | MeteoRA: Multiple-tasks Embedded LoRA for Large Language Models はコメントを受け付けていません

GPT is Not an Annotator: The Necessity of Human Annotation in Fairness Benchmark Construction

要約 LLM の社会的バイアスは、通常、バイアス ベンチマーク データセットを通 … 続きを読む

カテゴリー: cs.CL, cs.CY, I.2.7 | GPT is Not an Annotator: The Necessity of Human Annotation in Fairness Benchmark Construction はコメントを受け付けていません

Adversarial DPO: Harnessing Harmful Data for Reducing Toxicity with Minimal Impact on Coherence and Evasiveness in Dialogue Agents

要約 オープンドメイン対話システムの最近の進歩は、高品質の大規模言語モデル (L … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Adversarial DPO: Harnessing Harmful Data for Reducing Toxicity with Minimal Impact on Coherence and Evasiveness in Dialogue Agents はコメントを受け付けていません

Unveiling factors influencing judgment variation in Sentiment Analysis with Natural Language Processing and Statistics

要約 トリップアドバイザーのレビューと比較可能なデータ ソースは、自然言語処理 … 続きを読む

カテゴリー: 68T50, 91F20, cs.CL, I.2.7 | Unveiling factors influencing judgment variation in Sentiment Analysis with Natural Language Processing and Statistics はコメントを受け付けていません