cs.CL」カテゴリーアーカイブ

AI-native Memory 2.0: Second Me

要約 外部世界との人間の相互作用には、他の個人、ウェブサイト、アプリケーション、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC | AI-native Memory 2.0: Second Me はコメントを受け付けていません

Unmask It! AI-Generated Product Review Detection in Dravidian Languages

要約 生成的AIの上昇は、AIに生成されたレビューの急増につながり、多くの場合、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Unmask It! AI-Generated Product Review Detection in Dravidian Languages はコメントを受け付けていません

SQLCritic: Correcting Text-to-SQL Generation via Clause-wise Critic

要約 テキスト間システムの最近の進歩により、自然言語クエリのSQLへの変換が改善 … 続きを読む

カテゴリー: cs.AI, cs.CL | SQLCritic: Correcting Text-to-SQL Generation via Clause-wise Critic はコメントを受け付けていません

CiteFusion: An Ensemble Framework for Citation Intent Classification Harnessing Dual-Model Binary Couples and SHAP Analyses

要約 学術的引用の根底にある動機を理解することは、研究への影響を評価し、透明な学 … 続きを読む

カテゴリー: cs.CL | CiteFusion: An Ensemble Framework for Citation Intent Classification Harnessing Dual-Model Binary Couples and SHAP Analyses はコメントを受け付けていません

xVLM2Vec: Adapting LVLM-based embedding models to multilinguality using Self-Knowledge Distillation

要約 現在の文献では、ほとんどの埋め込みモデルは、エンコーダーのみのトランスアー … 続きを読む

カテゴリー: cs.CL, cs.IR | xVLM2Vec: Adapting LVLM-based embedding models to multilinguality using Self-Knowledge Distillation はコメントを受け付けていません

A Survey on Enhancing Causal Reasoning Ability of Large Language Models

要約 大規模な言語モデル(LLM)は最近、言語タスクおよびそれ以降で顕著なパフォ … 続きを読む

カテゴリー: cs.AI, cs.CL | A Survey on Enhancing Causal Reasoning Ability of Large Language Models はコメントを受け付けていません

Investigating User Perspectives on Differentially Private Text Privatization

要約 最近の文献では、$ \ textit {差別的に私的な自然言語処理} $( … 続きを読む

カテゴリー: cs.CL, cs.HC | Investigating User Perspectives on Differentially Private Text Privatization はコメントを受け付けていません

An Evaluation of LLMs for Detecting Harmful Computing Terms

要約 技術的なコンテキストで有害および非包括的な用語を検出することは、コンピュー … 続きを読む

カテゴリー: cs.CL, cs.ET | An Evaluation of LLMs for Detecting Harmful Computing Terms はコメントを受け付けていません

Safer or Luckier? LLMs as Safety Evaluators Are Not Robust to Artifacts

要約 大規模な言語モデル(LLM)は、生成されたコンテンツの安全性を評価するため … 続きを読む

カテゴリー: cs.AI, cs.CL | Safer or Luckier? LLMs as Safety Evaluators Are Not Robust to Artifacts はコメントを受け付けていません

MOAT: Evaluating LMMs for Capability Integration and Instruction Grounding

要約 大規模なマルチモーダルモデル(LMM)は、ビジョン言語(VL)タスクのジェ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV | MOAT: Evaluating LMMs for Capability Integration and Instruction Grounding はコメントを受け付けていません