cs.CL」カテゴリーアーカイブ

Towards Compositionality in Concept Learning

要約 概念ベースの解釈可能性手法は、基礎モデルの埋め込みを高レベルの概念に分解す … 続きを読む

カテゴリー: cs.CL, cs.LG | Towards Compositionality in Concept Learning はコメントを受け付けていません

Are AI-Generated Text Detectors Robust to Adversarial Perturbations?

要約 大規模言語モデル (LLM) の普及により、AI 生成テキストの悪用の可能 … 続きを読む

カテゴリー: cs.AI, cs.CL | Are AI-Generated Text Detectors Robust to Adversarial Perturbations? はコメントを受け付けていません

S3: A Simple Strong Sample-effective Multimodal Dialog System

要約 この研究では、MMMU と AI Journey Contest 2023 … 続きを読む

カテゴリー: cs.AI, cs.CL | S3: A Simple Strong Sample-effective Multimodal Dialog System はコメントを受け付けていません

AI-native Memory: A Pathway from LLMs Towards AGI

要約 大規模言語モデル (LLM) は、汎用人工知能 (AGI) の火花を使って … 続きを読む

カテゴリー: cs.AI, cs.CL | AI-native Memory: A Pathway from LLMs Towards AGI はコメントを受け付けていません

MathOdyssey: Benchmarking Mathematical Problem-Solving Skills in Large Language Models Using Odyssey Math Data

要約 大規模言語モデル (LLM) は、自然言語理解を大幅に進歩させ、強力な問題 … 続きを読む

カテゴリー: cs.AI, cs.CL | MathOdyssey: Benchmarking Mathematical Problem-Solving Skills in Large Language Models Using Odyssey Math Data はコメントを受け付けていません

PaCoST: Paired Confidence Significance Testing for Benchmark Contamination Detection in Large Language Models

要約 大規模言語モデル (LLM) は、大量のデータでトレーニングされることが知 … 続きを読む

カテゴリー: cs.AI, cs.CL | PaCoST: Paired Confidence Significance Testing for Benchmark Contamination Detection in Large Language Models はコメントを受け付けていません

Research on Information Extraction of LCSTS Dataset Based on an Improved BERTSum-LSTM Model

要約 人工知能の発展に伴い、自然言語処理技術はさまざまな分野で広く活用されるよう … 続きを読む

カテゴリー: cs.AI, cs.CL | Research on Information Extraction of LCSTS Dataset Based on an Improved BERTSum-LSTM Model はコメントを受け付けていません

Inference-Time Intervention: Eliciting Truthful Answers from a Language Model

要約 大規模言語モデル (LLM) の「真実性」を強化するために設計された手法で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Inference-Time Intervention: Eliciting Truthful Answers from a Language Model はコメントを受け付けていません

Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task

要約 言語モデルは驚くべき範囲の能力を示しますが、その明らかな能力の源は不明です … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task はコメントを受け付けていません

IRCAN: Mitigating Knowledge Conflicts in LLM Generation via Identifying and Reweighting Context-Aware Neurons

要約 大規模言語モデル (LLM) は、大量のデータでトレーニングされた後、膨大 … 続きを読む

カテゴリー: cs.AI, cs.CL | IRCAN: Mitigating Knowledge Conflicts in LLM Generation via Identifying and Reweighting Context-Aware Neurons はコメントを受け付けていません