月別アーカイブ: 2025年4月

Optimizing RLHF Training for Large Language Models with Stage Fusion

要約 人間のフィードバック(RLHF)からの補強学習のための段階的融合を備えた効 … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | Optimizing RLHF Training for Large Language Models with Stage Fusion はコメントを受け付けていません

SWITCH: Studying with Teacher for Knowledge Distillation of Large Language Models

要約 大規模な言語モデル(LLMS)の成功にもかかわらず、彼らは依然として高い推 … 続きを読む

カテゴリー: cs.CL | SWITCH: Studying with Teacher for Knowledge Distillation of Large Language Models はコメントを受け付けていません

Few-shot Hate Speech Detection Based on the MindSpore Framework

要約 ソーシャルメディアでのヘイトスピーチの急増は、オンラインコミュニティに大き … 続きを読む

カテゴリー: cs.CL, cs.CY | Few-shot Hate Speech Detection Based on the MindSpore Framework はコメントを受け付けていません

Methods for Recognizing Nested Terms

要約 この論文では、ネストされた用語を抽出することに専念するRutermeval … 続きを読む

カテゴリー: cs.CL | Methods for Recognizing Nested Terms はコメントを受け付けていません

Certified Mitigation of Worst-Case LLM Copyright Infringement

要約 トレーニング前に大規模な言語モデル(LLM)を著作権で保護された材料に曝露 … 続きを読む

カテゴリー: cs.CL | Certified Mitigation of Worst-Case LLM Copyright Infringement はコメントを受け付けていません

Honey, I Shrunk the Language Model: Impact of Knowledge Distillation Methods on Performance and Explainability

要約 人工知能(AI)は、特に大規模な言語モデル(LLM)の大幅な進歩を通じて、 … 続きを読む

カテゴリー: cs.CL | Honey, I Shrunk the Language Model: Impact of Knowledge Distillation Methods on Performance and Explainability はコメントを受け付けていません

Key, Value, Compress: A Systematic Exploration of KV Cache Compression Techniques

要約 大規模な言語モデル(LLMS)は、テキスト、画像、ビデオコンテンツを生成す … 続きを読む

カテゴリー: cs.CL | Key, Value, Compress: A Systematic Exploration of KV Cache Compression Techniques はコメントを受け付けていません

Vision-Language Models Are Not Pragmatically Competent in Referring Expression Generation

要約 参照式生成(REG)は、視覚言語システムの実用的な能力を評価するための中核 … 続きを読む

カテゴリー: cs.CL | Vision-Language Models Are Not Pragmatically Competent in Referring Expression Generation はコメントを受け付けていません

A Python Tool for Reconstructing Full News Text from GDELT

要約 ニュースデータは、経済学、財政、管理、社会科学、コンピューターサイエンスな … 続きを読む

カテゴリー: cs.CL, cs.DB, cs.IR, H.2.8 | A Python Tool for Reconstructing Full News Text from GDELT はコメントを受け付けていません

State Space Models are Strong Text Rerankers

要約 トランスがNLPとIRを支配しています。 しかし、より長いコンテキストに外 … 続きを読む

カテゴリー: cs.CL, cs.IR | State Space Models are Strong Text Rerankers はコメントを受け付けていません