月別アーカイブ: 2023年5月

Graph-based Time Series Clustering for End-to-End Hierarchical Forecasting

要約 時系列間の既存の関係は、効果的な予測モデルを学習する際の帰納的バイアスとし … 続きを読む

カテゴリー: cs.AI, cs.LG | Graph-based Time Series Clustering for End-to-End Hierarchical Forecasting はコメントを受け付けていません

Inverse Approximation Theory for Nonlinear Recurrent Neural Networks

要約 RNN を使用して非線形シーケンス間の関係を近似するための逆近似定理を証明 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.DS | Inverse Approximation Theory for Nonlinear Recurrent Neural Networks はコメントを受け付けていません

Solving Projected Model Counting by Utilizing Treewidth and its Limits

要約 この論文では、投影モデル計数 (PMC) を解決するための新しいアルゴリズ … 続きを読む

カテゴリー: cs.AI, cs.CC, cs.DB | Solving Projected Model Counting by Utilizing Treewidth and its Limits はコメントを受け付けていません

Intent-aligned AI systems deplete human agency: the need for agency foundations research in AI safety

要約 人工知能 (AI) システムの急速な進歩は、汎用人工知能 (AGI) シス … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.HC | Intent-aligned AI systems deplete human agency: the need for agency foundations research in AI safety はコメントを受け付けていません

Why Target Networks Stabilise Temporal Difference Methods

要約 深層強化学習における最近の成功に不可欠なのは、マルコフ決定プロセスでのポリ … 続きを読む

カテゴリー: cs.AI, cs.LG | Why Target Networks Stabilise Temporal Difference Methods はコメントを受け付けていません

Incentivizing honest performative predictions with proper scoring rules

要約 適切な採点ルールは、予測が結果に影響を与えることはできないと想定し、専門家 … 続きを読む

カテゴリー: cs.AI | Incentivizing honest performative predictions with proper scoring rules はコメントを受け付けていません

Unsupervised Melody-to-Lyric Generation

要約 メロディーから歌詞への自動生成は、指定されたメロディーに合わせて歌詞を生成 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | Unsupervised Melody-to-Lyric Generation はコメントを受け付けていません

Controlled Text Generation with Hidden Representation Transformations

要約 私たちは、特定の属性 (毒性など) に関連するテキストを生成するように大規 … 続きを読む

カテゴリー: cs.AI, cs.CL | Controlled Text Generation with Hidden Representation Transformations はコメントを受け付けていません

Grammar Prompting for Domain-Specific Language Generation with Large Language Models

要約 大規模言語モデル (LLM) は、コンテキスト内のほんの一握りの例から、幅 … 続きを読む

カテゴリー: cs.AI, cs.CL | Grammar Prompting for Domain-Specific Language Generation with Large Language Models はコメントを受け付けていません

When Not to Trust Language Models: Investigating Effectiveness of Parametric and Non-Parametric Memories

要約 大規模言語モデル (LM) は、さまざまなタスクで目覚ましいパフォーマンス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | When Not to Trust Language Models: Investigating Effectiveness of Parametric and Non-Parametric Memories はコメントを受け付けていません