cs.CL」カテゴリーアーカイブ

Bridging Gaps in Natural Language Processing for Yorùbá: A Systematic Review of a Decade of Progress and Prospects

要約 自然言語加工(NLP)は、人間の言語が不可欠に見えることを機械が理解するの … 続きを読む

カテゴリー: cs.AI, cs.CL | Bridging Gaps in Natural Language Processing for Yorùbá: A Systematic Review of a Decade of Progress and Prospects はコメントを受け付けていません

Aligned at the Start: Conceptual Groupings in LLM Embeddings

要約 このペーパーでは、焦点を見越えられている入力埋め込み、つまりトランスブロッ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Aligned at the Start: Conceptual Groupings in LLM Embeddings はコメントを受け付けていません

Low-Rank and Sparse Model Merging for Multi-Lingual Speech Recognition and Translation

要約 言語の多様性は、自動音声認識や翻訳など、音声からテキスト(S2T)タスクに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | Low-Rank and Sparse Model Merging for Multi-Lingual Speech Recognition and Translation はコメントを受け付けていません

Big-Math: A Large-Scale, High-Quality Math Dataset for Reinforcement Learning in Language Models

要約 推論モデルへの関心の高まりにより、数学はアルゴリズムと方法論の改善の顕著な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Big-Math: A Large-Scale, High-Quality Math Dataset for Reinforcement Learning in Language Models はコメントを受け付けていません

Learning to Reason at the Frontier of Learnability

要約 強化学習は現在、特に数学の問題などの推論スタイルのタスクについて、大規模な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Learning to Reason at the Frontier of Learnability はコメントを受け付けていません

Emoti-Attack: Zero-Perturbation Adversarial Attacks on NLP Systems via Emoji Sequences

要約 Deep Neural Networks(DNNS)は、Natural L … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Emoti-Attack: Zero-Perturbation Adversarial Attacks on NLP Systems via Emoji Sequences はコメントを受け付けていません

FIG: Forward-Inverse Generation for Low-Resource Domain-specific Event Detection

要約 イベント検出(ED)は、生物医学、法的、および疫学的領域におけるドメイン固 … 続きを読む

カテゴリー: cs.AI, cs.CL | FIG: Forward-Inverse Generation for Low-Resource Domain-specific Event Detection はコメントを受け付けていません

Large Language Models are Powerful EHR Encoders

要約 電子健康記録(EHR)は臨床的予測の豊富な可能性を提供しますが、それらの固 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Large Language Models are Powerful EHR Encoders はコメントを受け付けていません

Reasoning with Latent Thoughts: On the Power of Looped Transformers

要約 大規模な言語モデルは、顕著な推論能力を示しており、スケーリング法則は、特に … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Reasoning with Latent Thoughts: On the Power of Looped Transformers はコメントを受け付けていません

The Geometry of Refusal in Large Language Models: Concept Cones and Representational Independence

要約 大規模な言語モデル(LLM)の安全性の配置は、敵対的に作られた入力を介して … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | The Geometry of Refusal in Large Language Models: Concept Cones and Representational Independence はコメントを受け付けていません