月別アーカイブ: 2025年5月

LSAQ: Layer-Specific Adaptive Quantization for Large Language Model Deployment

要約 大規模な言語モデル(LLMS)がさまざまなドメインで例外的なパフォーマンス … 続きを読む

カテゴリー: cs.CL | LSAQ: Layer-Specific Adaptive Quantization for Large Language Model Deployment はコメントを受け付けていません

An Analysis of Hyper-Parameter Optimization Methods for Retrieval Augmented Generation

要約 特定のユースケースの最適な検索高等発電(RAG)構成を見つけることは、複雑 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | An Analysis of Hyper-Parameter Optimization Methods for Retrieval Augmented Generation はコメントを受け付けていません

Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis

要約 患者情報(兆候や症状など)と計算モデルを活用して、考えられる診断と推論を生 … 続きを読む

カテゴリー: cs.CL | Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis はコメントを受け付けていません

Long-Short Chain-of-Thought Mixture Supervised Fine-Tuning Eliciting Efficient Reasoning in Large Language Models

要約 大規模な言語モデルの最近の進歩により、大規模な推論モデル(たとえば、Dee … 続きを読む

カテゴリー: cs.CL | Long-Short Chain-of-Thought Mixture Supervised Fine-Tuning Eliciting Efficient Reasoning in Large Language Models はコメントを受け付けていません

Evaluation of LLMs on Long-tail Entity Linking in Historical Documents

要約 エンティティリンク(EL)は、自然言語処理(NLP)アプリケーションにおい … 続きを読む

カテゴリー: cs.CL | Evaluation of LLMs on Long-tail Entity Linking in Historical Documents はコメントを受け付けていません

Sentence Embeddings as an intermediate target in end-to-end summarisation

要約 文書の要約の問題に対する現在のニューラルネットワークベースの方法は、大きな … 続きを読む

カテゴリー: cs.CL | Sentence Embeddings as an intermediate target in end-to-end summarisation はコメントを受け付けていません

Pushing the boundary on Natural Language Inference

要約 自然言語推論(NLI)は、事実チェック、質問の回答、情報の検索におけるアプ … 続きを読む

カテゴリー: cs.AI, cs.CL | Pushing the boundary on Natural Language Inference はコメントを受け付けていません

BadLingual: A Novel Lingual-Backdoor Attack against Large Language Models

要約 この論文では、大規模な言語モデル(LLMS)に対する新しい形式のバックドア … 続きを読む

カテゴリー: cs.CL, cs.CR | BadLingual: A Novel Lingual-Backdoor Attack against Large Language Models はコメントを受け付けていません

MoM: Linear Sequence Modeling with Mixture-of-Memories

要約 線形注意、状態空間モデリング、線形RNNなどの線形シーケンスモデリング方法 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | MoM: Linear Sequence Modeling with Mixture-of-Memories はコメントを受け付けていません

Faster MoE LLM Inference for Extremely Large Models

要約 専門家(MOE)の大規模な言語モデル(LLM)のまばらな混合物は、徐々に超 … 続きを読む

カテゴリー: cs.CL, cs.LG | Faster MoE LLM Inference for Extremely Large Models はコメントを受け付けていません