cs.CL」カテゴリーアーカイブ

Mind the Gap: Bridging Thought Leap for Improved Chain-of-Thought Tuning

要約 大規模な言語モデル(LLMS)は、チェーンオブテア(COT)推論を通じて数 … 続きを読む

カテゴリー: cs.AI, cs.CL | Mind the Gap: Bridging Thought Leap for Improved Chain-of-Thought Tuning はコメントを受け付けていません

Pivot Language for Low-Resource Machine Translation

要約 特定の言語のペアは、サイズが大きく、ドメインが多様な平行なコーパスの欠如に … 続きを読む

カテゴリー: 68T50, cs.CL, cs.LG, I.2.7 | Pivot Language for Low-Resource Machine Translation はコメントを受け付けていません

MCIP: Protecting MCP Safety via Model Contextual Integrity Protocol

要約 モデルコンテキストプロトコル(MCP)は、ユーザーと開発者に使いやすいエコ … 続きを読む

カテゴリー: cs.CL | MCIP: Protecting MCP Safety via Model Contextual Integrity Protocol はコメントを受け付けていません

KORGym: A Dynamic Game Platform for LLM Reasoning Evaluation

要約 大規模な言語モデル(LLMS)の最近の進歩は、推論能力を正確に評価するため … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | KORGym: A Dynamic Game Platform for LLM Reasoning Evaluation はコメントを受け付けていません

Think Only When You Need with Large Hybrid-Reasoning Models

要約 最近の大規模な推論モデル(LRM)は、最終的な応答を作成する前に拡張思考プ … 続きを読む

カテゴリー: cs.CL | Think Only When You Need with Large Hybrid-Reasoning Models はコメントを受け付けていません

ModRWKV: Transformer Multimodality in Linear Time

要約 現在、ほとんどのマルチモーダル研究は、二次複数の変圧器アーキテクチャを備え … 続きを読む

カテゴリー: cs.AI, cs.CL | ModRWKV: Transformer Multimodality in Linear Time はコメントを受け付けていません

Teaching Audio-Aware Large Language Models What Does Not Hear: Mitigating Hallucinations through Synthesized Negative Samples

要約 オーディオ認識の大規模な言語モデル(ALLMS)の最近の進歩により、オーデ … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Teaching Audio-Aware Large Language Models What Does Not Hear: Mitigating Hallucinations through Synthesized Negative Samples はコメントを受け付けていません

Exploring Graph Representations of Logical Forms for Language Modeling

要約 このようなモデルは、テキストの対応物よりもデータ効率が高いと主張して、論理 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Exploring Graph Representations of Logical Forms for Language Modeling はコメントを受け付けていません

MMUnlearner: Reformulating Multimodal Machine Unlearning in the Era of Multimodal Large Language Models

要約 Machine Inlerning(MU)の最近の進捗状況は、深いニューラ … 続きを読む

カテゴリー: cs.AI, cs.CL | MMUnlearner: Reformulating Multimodal Machine Unlearning in the Era of Multimodal Large Language Models はコメントを受け付けていません

Internal Chain-of-Thought: Empirical Evidence for Layer-wise Subtask Scheduling in LLMs

要約 大規模な言語モデル(LLMS)が$ \ textIT {内部チェーンオブオ … 続きを読む

カテゴリー: cs.CL, cs.LG | Internal Chain-of-Thought: Empirical Evidence for Layer-wise Subtask Scheduling in LLMs はコメントを受け付けていません