cs.AI」カテゴリーアーカイブ

Air-Ground Collaboration for Language-Specified Missions in Unknown Environments

要約 自律的なロボットシステムがますます成熟するにつれて、ユーザーは低レベルの詳 … 続きを読む

カテゴリー: cs.AI, cs.RO | Air-Ground Collaboration for Language-Specified Missions in Unknown Environments はコメントを受け付けていません

AdaWorld: Learning Adaptable World Models with Latent Actions

要約 世界モデルは、アクション制御された将来の予測を学ぶことを目指しており、イン … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | AdaWorld: Learning Adaptable World Models with Latent Actions はコメントを受け付けていません

Is Linear Feedback on Smoothed Dynamics Sufficient for Stabilizing Contact-Rich Plans?

要約 コンタクトが豊富な操作のためのプランナーとコントローラーの設計は、多くの勾 … 続きを読む

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | Is Linear Feedback on Smoothed Dynamics Sufficient for Stabilizing Contact-Rich Plans? はコメントを受け付けていません

Performance Gains of LLMs With Humans in a World of LLMs Versus Humans

要約 現在、LLMの専門家のグループをLLMのグループと比較することにかなりの研 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC | Performance Gains of LLMs With Humans in a World of LLMs Versus Humans はコメントを受け付けていません

Grounding Synthetic Data Evaluations of Language Models in Unsupervised Document Corpora

要約 言語モデル(LMS)は引き続き前進し、応答の品質と一貫性を向上させます。 … 続きを読む

カテゴリー: cs.AI, cs.CL | Grounding Synthetic Data Evaluations of Language Models in Unsupervised Document Corpora はコメントを受け付けていません

Principled Data Selection for Alignment: The Hidden Risks of Difficult Examples

要約 大規模な言語モデル(LLMS)の整合性は、よりきれいなデータを使用すると、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Principled Data Selection for Alignment: The Hidden Risks of Difficult Examples はコメントを受け付けていません

Simulating and Analysing Human Survey Responses with Large Language Models: A Case Study in Energy Stated Preference

要約 調査研究は、消費者の好みを把握し、政策決定を通知することにより、研究におい … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Simulating and Analysing Human Survey Responses with Large Language Models: A Case Study in Energy Stated Preference はコメントを受け付けていません

An Analytical Emotion Framework of Rumour Threads on Social Media

要約 オンラインソーシャルメディアの噂は、現代社会に大きなリスクをもたらし、それ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SI | An Analytical Emotion Framework of Rumour Threads on Social Media はコメントを受け付けていません

Automated Meta Prompt Engineering for Alignment with the Theory of Mind

要約 人間の精神的期待と大規模な言語モデル(LLM)神経処理の間の神経状態の類似 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Automated Meta Prompt Engineering for Alignment with the Theory of Mind はコメントを受け付けていません

Improving the Reliability of LLMs: Combining CoT, RAG, Self-Consistency, and Self-Verification

要約 大規模な言語モデル(LLM)が自信を持っているが間違ったまたは無関係な情報 … 続きを読む

カテゴリー: cs.AI, cs.CL | Improving the Reliability of LLMs: Combining CoT, RAG, Self-Consistency, and Self-Verification はコメントを受け付けていません