cs.AI」カテゴリーアーカイブ

CoSQA+: Pioneering the Multi-Choice Code Search Benchmark with Test-Driven Agents

要約 セマンティックコード検索、特定の自然言語クエリに一致するコードの取得は、ソ … 続きを読む

カテゴリー: cs.AI, cs.IR, cs.SE, D.2.3 | CoSQA+: Pioneering the Multi-Choice Code Search Benchmark with Test-Driven Agents はコメントを受け付けていません

Multilingual Non-Factoid Question Answering with Answer Paragraph Selection

要約 ほとんどの既存の質問回答データセット(QUAD)は、主に高リソース言語のフ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR, cs.LG | Multilingual Non-Factoid Question Answering with Answer Paragraph Selection はコメントを受け付けていません

DataSciBench: An LLM Agent Benchmark for Data Science

要約 このホワイトペーパーでは、データサイエンスの大規模な言語モデル(LLM)機 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | DataSciBench: An LLM Agent Benchmark for Data Science はコメントを受け付けていません

Partially Observable Gaussian Process Network and Doubly Stochastic Variational Inference

要約 ガウスプロセス(GP)の次元の呪いを減らすために、それらは、低次元の結合さ … 続きを読む

カテゴリー: cs.AI, cs.LG | Partially Observable Gaussian Process Network and Doubly Stochastic Variational Inference はコメントを受け付けていません

Lost in Sequence: Do Large Language Models Understand Sequential Recommendation?

要約 最近、大規模な言語モデル(LLMS)は、高度なテキスト理解能力とコンテキス … 続きを読む

カテゴリー: cs.AI, cs.IR | Lost in Sequence: Do Large Language Models Understand Sequential Recommendation? はコメントを受け付けていません

How Do LLMs Perform Two-Hop Reasoning in Context?

要約 「ソクラテスは人間です。 すべての人間は致命的です。 したがって、ソクラテ … 続きを読む

カテゴリー: cs.AI, cs.CL | How Do LLMs Perform Two-Hop Reasoning in Context? はコメントを受け付けていません

Learning from Committee: Reasoning Distillation from a Mixture of Teachers with Peer-Review

要約 推論能力は通常、数千億のパラメーターを備えた大規模な言語モデル(LLMS) … 続きを読む

カテゴリー: cs.AI, cs.CL | Learning from Committee: Reasoning Distillation from a Mixture of Teachers with Peer-Review はコメントを受け付けていません

AdaptiveStep: Automatically Dividing Reasoning Step through Model Confidence

要約 トレーニングプロセス報酬モデル(PRMS)の現在のアプローチでは、事前定義 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | AdaptiveStep: Automatically Dividing Reasoning Step through Model Confidence はコメントを受け付けていません

Why Safeguarded Ships Run Aground? Aligned Large Language Models’ Safety Mechanisms Tend to Be Anchored in The Template Region

要約 大規模な言語モデル(LLMS)の安全性の配置は脆弱なままです。なぜなら、そ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Why Safeguarded Ships Run Aground? Aligned Large Language Models’ Safety Mechanisms Tend to Be Anchored in The Template Region はコメントを受け付けていません

Neurosymbolic artificial intelligence via large language models and coherence-driven inference

要約 アルゴリズムを考案して、コヒーレンス駆動型の推論をサポートするグラフを客観 … 続きを読む

カテゴリー: cs.AI | Neurosymbolic artificial intelligence via large language models and coherence-driven inference はコメントを受け付けていません