cs.CL」カテゴリーアーカイブ

DyePack: Provably Flagging Test Set Contamination in LLMs Using Backdoors

要約 オープンベンチマークは、再現性と透明性を提供し、大規模な言語モデルの評価と … 続きを読む

カテゴリー: cs.CL | DyePack: Provably Flagging Test Set Contamination in LLMs Using Backdoors はコメントを受け付けていません

X-Driver: Explainable Autonomous Driving with Vision-Language Models

要約 エンド・ツー・エンドの自律走行は著しく進歩しており、従来のパイプラインより … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.ET, cs.RO | X-Driver: Explainable Autonomous Driving with Vision-Language Models はコメントを受け付けていません

Adaptive Graph Pruning for Multi-Agent Communication

要約 大規模言語モデル(Large Language Model: LLM)に基 … 続きを読む

カテゴリー: cs.CL, cs.MA | Adaptive Graph Pruning for Multi-Agent Communication はコメントを受け付けていません

Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs

要約 大規模言語モデル(Large Language Models: LLM)は … 続きを読む

カテゴリー: cs.AI, cs.CL | Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs はコメントを受け付けていません

HACo-Det: A Study Towards Fine-Grained Machine-Generated Text Detection under Human-AI Coauthoring

要約 大規模言語モデル(LLM)の誤用は潜在的なリスクをもたらすため、機械生成テ … 続きを読む

カテゴリー: cs.AI, cs.CL | HACo-Det: A Study Towards Fine-Grained Machine-Generated Text Detection under Human-AI Coauthoring はコメントを受け付けていません

FlowerTune: A Cross-Domain Benchmark for Federated Fine-Tuning of Large Language Models

要約 大規模言語モデル(LLM)は様々な領域で最先端の結果を達成しているが、その … 続きを読む

カテゴリー: cs.CL | FlowerTune: A Cross-Domain Benchmark for Federated Fine-Tuning of Large Language Models はコメントを受け付けていません

Lower Layers Matter: Alleviating Hallucination via Multi-Layer Fusion Contrastive Decoding with Truthfulness Refocused

要約 大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて卓越した性能 … 続きを読む

カテゴリー: cs.CL | Lower Layers Matter: Alleviating Hallucination via Multi-Layer Fusion Contrastive Decoding with Truthfulness Refocused はコメントを受け付けていません

Expanding before Inferring: Enhancing Factuality in Large Language Models through Premature Layers Interpolation

要約 大規模言語モデル(LLM)は、テキスト理解と生成において目覚ましい能力を発 … 続きを読む

カテゴリー: cs.CL | Expanding before Inferring: Enhancing Factuality in Large Language Models through Premature Layers Interpolation はコメントを受け付けていません

Meta-Learning Neural Mechanisms rather than Bayesian Priors

要約 子どもは、大規模な言語モデルが必要とするデータよりも数桁少ないデータにさら … 続きを読む

カテゴリー: cs.CL | Meta-Learning Neural Mechanisms rather than Bayesian Priors はコメントを受け付けていません

KRISTEVA: Close Reading as a Novel Task for Benchmarking Interpretive Reasoning

要約 大学レベルの英語コースでは、毎年何千万もの小論文が書かれ、採点されている。 … 続きを読む

カテゴリー: cs.CL | KRISTEVA: Close Reading as a Novel Task for Benchmarking Interpretive Reasoning はコメントを受け付けていません