投稿者「jarxiv」のアーカイブ

Behind Maya: Building a Multilingual Vision Language Model

要約 最近では、大規模なビジョン言語モデル(VLM)の急速な発展が見られました。 … 続きを読む

カテゴリー: cs.CL, cs.CV | Behind Maya: Building a Multilingual Vision Language Model はコメントを受け付けていません

Simulating and Analysing Human Survey Responses with Large Language Models: A Case Study in Energy Stated Preference

要約 調査研究は、消費者の好みを把握し、政策決定を通知することにより、研究におい … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Simulating and Analysing Human Survey Responses with Large Language Models: A Case Study in Energy Stated Preference はコメントを受け付けていません

ForeCite: Adapting Pre-Trained Language Models to Predict Future Citation Rates of Academic Papers

要約 学術論文の将来の引用率を予測することは、研究評価の自動化と科学的進歩の加速 … 続きを読む

カテゴリー: cs.CL, cs.LG | ForeCite: Adapting Pre-Trained Language Models to Predict Future Citation Rates of Academic Papers はコメントを受け付けていません

Prioritizing Image-Related Tokens Enhances Vision-Language Pre-Training

要約 トレーニング前の標準的な大きな視覚言語モデル(LVLMS)では、モデルは通 … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | Prioritizing Image-Related Tokens Enhances Vision-Language Pre-Training はコメントを受け付けていません

A suite of LMs comprehend puzzle statements as well as humans

要約 最近の主張は、大規模な言語モデル(LMS)が、最小限の複雑な英語声明を理解 … 続きを読む

カテゴリー: cs.CL | A suite of LMs comprehend puzzle statements as well as humans はコメントを受け付けていません

An Analytical Emotion Framework of Rumour Threads on Social Media

要約 オンラインソーシャルメディアの噂は、現代社会に大きなリスクをもたらし、それ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SI | An Analytical Emotion Framework of Rumour Threads on Social Media はコメントを受け付けていません

For GPT-4 as with Humans: Information Structure Predicts Acceptability of Long-Distance Dependencies

要約 どんなLMでも自然言語を理解しているか、信頼できるメタリングスティックな判 … 続きを読む

カテゴリー: cs.CL | For GPT-4 as with Humans: Information Structure Predicts Acceptability of Long-Distance Dependencies はコメントを受け付けていません

Automated Meta Prompt Engineering for Alignment with the Theory of Mind

要約 人間の精神的期待と大規模な言語モデル(LLM)神経処理の間の神経状態の類似 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Automated Meta Prompt Engineering for Alignment with the Theory of Mind はコメントを受け付けていません

Improving the Reliability of LLMs: Combining CoT, RAG, Self-Consistency, and Self-Verification

要約 大規模な言語モデル(LLM)が自信を持っているが間違ったまたは無関係な情報 … 続きを読む

カテゴリー: cs.AI, cs.CL | Improving the Reliability of LLMs: Combining CoT, RAG, Self-Consistency, and Self-Verification はコメントを受け付けていません

Atomic Consistency Preference Optimization for Long-Form Question Answering

要約 大規模な言語モデル(LLM)は、頻繁にファクトイドの幻覚を生成します &# … 続きを読む

カテゴリー: cs.CL | Atomic Consistency Preference Optimization for Long-Form Question Answering はコメントを受け付けていません