I.2.7」カテゴリーアーカイブ

Efficient Solutions For An Intriguing Failure of LLMs: Long Context Window Does Not Mean LLMs Can Analyze Long Sequences Flawlessly

要約 大規模言語モデル (LLM) は、単一のフォワード パスで数百万のトークン … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7 | コメントする

A Novel Generative Multi-Task Representation Learning Approach for Predicting Postoperative Complications in Cardiac Surgery Patients

要約 外科的合併症の早期発見により、タイムリーな治療と事前のリスク軽減が可能にな … 続きを読む

カテゴリー: cs.LG, eess.IV, I.2.7 | コメントする

2M-BELEBELE: Highly Multilingual Speech and American Sign Language Comprehension Dataset

要約 BELEBELE を拡張することにより、初の高度に多言語の音声およびアメリ … 続きを読む

カテゴリー: cs.CL, I.2.7 | コメントする

Enabling Low-Resource Language Retrieval: Establishing Baselines for Urdu MS MARCO

要約 情報検索 (IR) 分野では包括性の重要性がますます認識されていますが、低 … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.IR, I.2.7 | コメントする

Using Instruction-Tuned Large Language Models to Identify Indicators of Vulnerability in Police Incident Narratives

要約 目的: 警察と公共のやりとりを記述する日常的に収集される非構造化テキストの … 続きを読む

カテゴリー: cs.CL, I.2.7 | コメントする

Precise Length Control in Large Language Models

要約 大規模言語モデル (LLM) は実稼働システムでますます使用され、チャット … 続きを読む

カテゴリー: cs.CL, I.2.7 | コメントする

The Open Source Advantage in Large Language Models (LLMs)

要約 大規模言語モデル (LLM) は、高度なテキスト生成、翻訳、およびドメイン … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7 | コメントする

ProSparse: Introducing and Enhancing Intrinsic Activation Sparsity within Large Language Models

要約 活性化の希薄性とは、活性化出力の中に寄与度が低い要素がかなり存在することを … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | コメントする

AI Predicts AGI: Leveraging AGI Forecasting and Peer Review to Explore LLMs’ Complex Reasoning Capabilities

要約 私たちは、16 の最先端の大規模言語モデル (LLM) に、2030 年ま … 続きを読む

カテゴリー: cs.AI, I.2.7 | コメントする

LCFO: Long Context and Long Form Output Dataset and Benchmarking

要約 このペーパーでは、さまざまなドメインにわたる段階的な要約と要約拡張機能を評 … 続きを読む

カテゴリー: cs.CL, I.2.7 | コメントする