月別アーカイブ: 2024年2月

Learning to Rewrite Prompts for Personalized Text Generation

要約 大規模言語モデル (LLM) によって促進され、パーソナライズされたテキス … 続きを読む

カテゴリー: cs.CL | Learning to Rewrite Prompts for Personalized Text Generation はコメントを受け付けていません

FACT-GPT: Fact-Checking Augmentation via Claim Matching with LLMs

要約 私たちの社会は、公衆衛生と信頼を損なう誤った情報の蔓延に直面しています。 … 続きを読む

カテゴリー: cs.CL, cs.CY, cs.HC, cs.SI | FACT-GPT: Fact-Checking Augmentation via Claim Matching with LLMs はコメントを受け付けていません

Efficient Stagewise Pretraining via Progressive Subnetworks

要約 大規模言語モデルの最近の開発により、効率的な事前トレーニング方法への関心が … 続きを読む

カテゴリー: cs.CL, cs.LG | Efficient Stagewise Pretraining via Progressive Subnetworks はコメントを受け付けていません

On the Convergence of Zeroth-Order Federated Tuning in Large Language Models

要約 Federated Learning (FL) と Large Langu … 続きを読む

カテゴリー: cs.CL, cs.LG | On the Convergence of Zeroth-Order Federated Tuning in Large Language Models はコメントを受け付けていません

Self-Alignment of Large Language Models via Monopolylogue-based Social Scene Simulation

要約 大規模言語モデル (LLM) を人間の価値観に合わせることが、その誤用によ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Self-Alignment of Large Language Models via Monopolylogue-based Social Scene Simulation はコメントを受け付けていません

Offline Risk-sensitive RL with Partial Observability to Enhance Performance in Human-Robot Teaming

要約 生理学的コンピューティングを混合主導型の人間とロボットの対話システムに統合 … 続きを読む

カテゴリー: cs.AI, cs.HC, cs.LG, cs.MA, cs.RO | Offline Risk-sensitive RL with Partial Observability to Enhance Performance in Human-Robot Teaming はコメントを受け付けていません

Answering Causal Queries at Layer 3 with DiscoSCMs-Embracing Heterogeneity

要約 因果推論の領域では、潜在的な結果 (PO) と構造的因果モデル (SCM) … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ME | Answering Causal Queries at Layer 3 with DiscoSCMs-Embracing Heterogeneity はコメントを受け付けていません

Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL

要約 ナッシュ均衡政策を見つけるために戦略的な探索が必要な、モデルベースの関数近 … 続きを読む

カテゴリー: cs.AI, cs.GT, cs.LG, stat.ML | Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL はコメントを受け付けていません

An Introduction to Transformers

要約 トランスフォーマーは、シーケンスまたはデータポイントのセットの有用な表現を … 続きを読む

カテゴリー: cs.AI, cs.LG | An Introduction to Transformers はコメントを受け付けていません

Lookbehind-SAM: k steps back, 1 step forward

要約 シャープネスを意識した最小化 (SAM) 手法は、最小目標として損失値と損 … 続きを読む

カテゴリー: cs.AI, cs.LG | Lookbehind-SAM: k steps back, 1 step forward はコメントを受け付けていません