cs.CL」カテゴリーアーカイブ

Performance evaluation of Reddit Comments using Machine Learning and Natural Language Processing methods in Sentiment Analysis

要約 感情分析は、学術界と産業界の両方でますます重要な分野となっており、機械学習 … 続きを読む

カテゴリー: cs.CL | Performance evaluation of Reddit Comments using Machine Learning and Natural Language Processing methods in Sentiment Analysis はコメントを受け付けていません

CriticBench: Benchmarking LLMs for Critique-Correct Reasoning

要約 大規模言語モデル (LLM) が推論を批判し洗練する能力は、評価、フィード … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | CriticBench: Benchmarking LLMs for Critique-Correct Reasoning はコメントを受け付けていません

Token-level Direct Preference Optimization

要約 事前トレーニングされた大規模言語モデル (LLM) を人間の価値観や意図に … 続きを読む

カテゴリー: cs.AI, cs.CL | Token-level Direct Preference Optimization はコメントを受け付けていません

Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes in Emotion Attribution

要約 大規模言語モデル (LLM) は、特にジェンダーに関する社会規範と偏見を反 … 続きを読む

カテゴリー: cs.CL | Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes in Emotion Attribution はコメントを受け付けていません

Let’s Fuse Step by Step: A Generative Fusion Decoding Algorithm with LLMs for Multi-modal Text Recognition

要約 私たちは、大規模言語モデル (LLM) を自動音声認識 (ASR) や光学 … 続きを読む

カテゴリー: cs.AI, cs.CL | Let’s Fuse Step by Step: A Generative Fusion Decoding Algorithm with LLMs for Multi-modal Text Recognition はコメントを受け付けていません

Active Use of Latent Constituency Representation in both Humans and Large Language Models

要約 ChatGPT などの大規模言語モデル (LLM) だけでなく、人間の脳内 … 続きを読む

カテゴリー: cs.AI, cs.CL | Active Use of Latent Constituency Representation in both Humans and Large Language Models はコメントを受け付けていません

A Simple Joint Model for Improved Contextual Neural Lemmatization

要約 英語の動詞には複数の形式があります。 たとえば、talk は、文脈に応じて … 続きを読む

カテゴリー: cs.CL | A Simple Joint Model for Improved Contextual Neural Lemmatization はコメントを受け付けていません

Semantic are Beacons: A Semantic Perspective for Unveiling Parameter-Efficient Fine-Tuning in Knowledge Learning

要約 Parameter-Efficient Fine-Tuning (PEFT … 続きを読む

カテゴリー: cs.CL | Semantic are Beacons: A Semantic Perspective for Unveiling Parameter-Efficient Fine-Tuning in Knowledge Learning はコメントを受け付けていません

Large Scale Knowledge Washing

要約 大規模な言語モデルは世界の知識を記憶する際に優れた能力を示しますが、これが … 続きを読む

カテゴリー: cs.CL | Large Scale Knowledge Washing はコメントを受け付けていません

Speakers Fill Lexical Semantic Gaps with Context

要約 語彙のあいまいさは言語に広く浸透しており、経済的な語形の再利用が可能になり … 続きを読む

カテゴリー: cs.CL | Speakers Fill Lexical Semantic Gaps with Context はコメントを受け付けていません