要約
健康的なライフスタイル行動の促進は、特にがん、心臓病、2 型糖尿病などの慢性疾患の予防における重要な役割により、依然として公衆衛生上の主要な懸念事項となっています。
モバイルヘルスアプリケーションは、低コストでスケーラブルな健康行動の変化を促進するための有望な手段を提供します。
研究者は、各人の固有の状況に合わせて介入をパーソナライズする適応アルゴリズムの研究を進めています。
しかし、実証研究では、モバイルヘルスアプリケーションは、特に人間によるコーチングと比較して、効果量が小さく、遵守率が低いことがよくあります。
個人固有の目標、好み、生活状況に合わせてアドバイスを調整することは、健康コーチングの重要な要素ですが、モバイル健康介入の適応アルゴリズムでは十分に活用されていません。
これに対処するために、個人間のデータ共有を活用してより迅速に効果的な推奨事項を提供できるようにしながら、個人化された報酬関数 (つまり、目標、好み、制約) に対応できる新しいトンプソン サンプリング アルゴリズムを導入します。
データ共有によるサンプルの複雑さの利点を維持しながら、修正によって累積的後悔に対する一定のペナルティのみが発生することを証明します。
我々は、合成および半合成の身体活動シミュレーターに関する実証結果を紹介します。後者では、オンライン調査を実施して身体活動に関する嗜好データを収集し、そのデータを使用して、別の研究の履歴データを活用した現実的な報酬モデルを構築しました。
当社のアルゴリズムは、データを共有しない、または個別の報酬を最適化しないベースラインと比較して、大幅なパフォーマンスの向上を実現します。
要約(オリジナル)
Promoting healthy lifestyle behaviors remains a major public health concern, particularly due to their crucial role in preventing chronic conditions such as cancer, heart disease, and type 2 diabetes. Mobile health applications present a promising avenue for low-cost, scalable health behavior change promotion. Researchers are increasingly exploring adaptive algorithms that personalize interventions to each person’s unique context. However, in empirical studies, mobile health applications often suffer from small effect sizes and low adherence rates, particularly in comparison to human coaching. Tailoring advice to a person’s unique goals, preferences, and life circumstances is a critical component of health coaching that has been underutilized in adaptive algorithms for mobile health interventions. To address this, we introduce a new Thompson sampling algorithm that can accommodate personalized reward functions (i.e., goals, preferences, and constraints), while also leveraging data sharing across individuals to more quickly be able to provide effective recommendations. We prove that our modification incurs only a constant penalty on cumulative regret while preserving the sample complexity benefits of data sharing. We present empirical results on synthetic and semi-synthetic physical activity simulators, where in the latter we conducted an online survey to solicit preference data relating to physical activity, which we use to construct realistic reward models that leverages historical data from another study. Our algorithm achieves substantial performance improvements compared to baselines that do not share data or do not optimize for individualized rewards.
arxiv情報
著者 | Aishwarya Mandyam,Matthew Jörke,William Denton,Barbara E. Engelhardt,Emma Brunskill |
発行日 | 2024-05-23 15:56:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google