cs.CL」カテゴリーアーカイブ

Self-Compositional Data Augmentation for Scientific Keyphrase Generation

要約 キーフレーズ生成用の最先端のモデルでは、良好なパフォーマンスを達成するため … 続きを読む

カテゴリー: cs.CL | Self-Compositional Data Augmentation for Scientific Keyphrase Generation はコメントを受け付けていません

Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning

要約 常微分方程式 (ODE) の離散近似としての残差ネットワークは、マルチステ … 続きを読む

カテゴリー: cs.CL | Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning はコメントを受け付けていません

In-Context Former: Lightning-fast Compressing Context for Large Language Model

要約 Transformer ベースの大規模言語モデル (LLM) の人気が高ま … 続きを読む

カテゴリー: cs.CL | In-Context Former: Lightning-fast Compressing Context for Large Language Model はコメントを受け付けていません

Generative Text Steganography with Large Language Model

要約 大規模言語モデル (LLM) の最近の進歩により、人間と機械の間の高品質テ … 続きを読む

カテゴリー: cs.CL | Generative Text Steganography with Large Language Model はコメントを受け付けていません

A Natural Language Processing-Based Classification and Mode-Based Ranking of Musculoskeletal Disorder Risk Factors

要約 この研究では、自然言語処理 (NLP) とモードベースのランキングを組み合 … 続きを読む

カテゴリー: cs.CL, cs.LG | A Natural Language Processing-Based Classification and Mode-Based Ranking of Musculoskeletal Disorder Risk Factors はコメントを受け付けていません

Multi-Programming Language Sandbox for LLMs

要約 MPLSandbox は、大規模言語モデル (LLM) のコンパイラおよび … 続きを読む

カテゴリー: cs.CL, cs.SE | Multi-Programming Language Sandbox for LLMs はコメントを受け付けていません

Teaching Models to Improve on Tape

要約 大規模言語モデル (LLM) は、特定の制約の下でコンテンツを生成するよう … 続きを読む

カテゴリー: cs.CL | Teaching Models to Improve on Tape はコメントを受け付けていません

Parallelizing Linear Transformers with the Delta Rule over Sequence Length

要約 線形アテンションを備えたトランスフォーマー (つまり、線形トランスフォーマ … 続きを読む

カテゴリー: cs.CL, cs.LG | Parallelizing Linear Transformers with the Delta Rule over Sequence Length はコメントを受け付けていません

LLMs for Domain Generation Algorithm Detection

要約 この研究では、ドメイン生成アルゴリズム (DGA) を検出するための大規模 … 続きを読む

カテゴリー: cs.CL, cs.CR | LLMs for Domain Generation Algorithm Detection はコメントを受け付けていません

Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse

要約 思考連鎖 (CoT) プロンプトは、大規模な言語モデルやマルチモーダル モ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse はコメントを受け付けていません