The Gittins Index: A Design Principle for Decision-Making Under Uncertainty

要約

Gittinsインデックスは、マルチアームの盗賊問題、キューの平均遅延を最小限に抑え、Pandora’s Boxモデルなどの検索問題など、不確実性を含むさまざまな意思決定問題を最適に解決するツールです。
ただし、上記の例とその後の拡張にもかかわらず、Gittinsインデックスが完全に最適に解決できる問題の空間は制限されており、その定義は他のマルチアームの盗賊アルゴリズムのものと比較してかなり微妙です。
その結果、Gittinsインデックスは、意思決定の問題を解決するための実用的なツールではなく、主に理論的重要性の概念であると見なされることがよくあります。
このチュートリアルの目的は、Gittinsインデックスが実際的な問題に実り多いものを適用できることを実証することです。
まず、Gittins Indexの例主導型の紹介を行い、それが解決する問題のいくつかの例を説明します。いくつかは最適なもの、最適ではありますが、それでも優れたパフォーマンスを備えています。
後者のカテゴリの2つの実用的なハイライトは、Gittinsインデックスをベイジアンの最適化に適用し、キューのテールレイテンシを最小化するためにGittinsインデックスを適用することです。

要約(オリジナル)

The Gittins index is a tool that optimally solves a variety of decision-making problems involving uncertainty, including multi-armed bandit problems, minimizing mean latency in queues, and search problems like the Pandora’s box model. However, despite the above examples and later extensions thereof, the space of problems that the Gittins index can solve perfectly optimally is limited, and its definition is rather subtle compared to those of other multi-armed bandit algorithms. As a result, the Gittins index is often regarded as being primarily a concept of theoretical importance, rather than a practical tool for solving decision-making problems. The aim of this tutorial is to demonstrate that the Gittins index can be fruitfully applied to practical problems. We start by giving an example-driven introduction to the Gittins index, then walk through several examples of problems it solves – some optimally, some suboptimally but still with excellent performance. Two practical highlights in the latter category are applying the Gittins index to Bayesian optimization, and applying the Gittins index to minimizing tail latency in queues.

arxiv情報

著者 Ziv Scully,Alexander Terenin
発行日 2025-06-12 16:38:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.PF, math.OC, math.PR, stat.ML | The Gittins Index: A Design Principle for Decision-Making Under Uncertainty はコメントを受け付けていません

A Goemans-Williamson type algorithm for identifying subcohorts in clinical trials

要約

大きな不均一データセットから均質なサブセット(同等にサブコホート)を識別するための線形分類器を出力する効率的なアルゴリズムを設計します。
私たちの理論的貢献は、Goemans and Williamson(1994)のそれと同様の丸みを帯びた手法であり、0.82ドルの係数内の基礎となる最適化問題の最適な解を近似しています。
アプリケーションとして、私たちのアルゴリズムを使用して、Curtis et al。による乳がんのRNAマイクロアレイデータセットから、主に転移性症例で構成される患者の均質なサブコホートを識別できる簡単なテストを設計します。
(2012)。
さらに、アルゴリズムによる試験出力も使用して、腫瘍抑制遺伝子のメチル化レベルの統計的に有意な変化が核受容体発現の統計的に有意な変化と共存する患者のサブホートを体系的に識別します。
患者のこのような均質なサブホートを特定することは、疾患経路と治療薬の発見に役立つ可能性があります。

要約(オリジナル)

We design an efficient algorithm that outputs a linear classifier for identifying homogeneous subsets (equivalently subcohorts) from large inhomogeneous datasets. Our theoretical contribution is a rounding technique, similar to that of Goemans and Williamson (1994), that approximates the optimal solution of the underlying optimization problem within a factor of $0.82$. As an application, we use our algorithm to design a simple test that can identify homogeneous subcohorts of patients, that are mainly comprised of metastatic cases, from the RNA microarray dataset for breast cancer by Curtis et al. (2012). Furthermore, we also use the test output by the algorithm to systematically identify subcohorts of patients in which statistically significant changes in methylation levels of tumor suppressor genes co-occur with statistically significant changes in nuclear receptor expression. Identifying such homogeneous subcohorts of patients can be useful for the discovery of disease pathways and therapeutics, specific to the subcohort.

arxiv情報

著者 Pratik Worah
発行日 2025-06-12 16:44:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.QM | A Goemans-Williamson type algorithm for identifying subcohorts in clinical trials はコメントを受け付けていません

Three iterations of $(d-1)$-WL test distinguish non isometric clouds of $d$-dimensional points

要約

Weisfeiler – Lehman(WL)テストは、グラフの同型をチェックするための基本的な反復アルゴリズムです。
また、このテストの表現力の観点から理解できるいくつかのグラフニューラルネットワークアーキテクチャの設計の根底にあることも観察されています。
3次元オブジェクトを含むデータセットへの機械学習アプリケーションの最近の開発に動機付けられているため、完全な距離グラフで表されるユークリッドポイントの雲について、WLテストが{\ em em Complete}である場合、つまり、等程度まで、そのような任意のクラウドを区別できる場合に研究します。
完全な距離グラフで表されるユークリッドポイントの%任意の雲。
%weisfeilerの寸法の数 – Lehmanテストでは、$ D $ DIMENSIOL EUCLIDEANスペースで2つの非等等尺度雲を区別するのに十分です。
この質問は、グラフニューラルネットワークのアーキテクチャがポイントクラウドの空間構造を完全に活用できることを理解するために重要です。
私たちの主な結果は、$ d $ -dimensional Euclideanスペースのポイントクラウドでは、$ d \ ge 2 $のポイントクラウドで完了し、テストの3回の繰り返しのみが十分であることを示しています。
また、完全性を達成するために$ D $-Dimensional WLテストでは1回の反復のみが必要であることがわかります。
したがって、私たちの論文は、3次元のケースを完全に理解しています。以前の作品では、1-wlが$ \ mathbb {r}^3 $で完了していないことが示されており、2-wlがそこで完了していることが示されています。
また、$ \ mathbb {r}^3 $で平面ポイント雲を認識できないことを示すことにより、1-wlの下限を強化します。
最後に、$ \ mathbb {r}^6 $で2-wlが完全ではないことを示します。$ \ mathbb {r}^{d} $ for $ d = 4,5 $で完了したかどうか。

要約(オリジナル)

The Weisfeiler–Lehman (WL) test is a fundamental iterative algorithm for checking isomorphism of graphs. It has also been observed that it underlies the design of several graph neural network architectures, whose capabilities and performance can be understood in terms of the expressive power of this test. Motivated by recent developments in machine learning applications to datasets involving three-dimensional objects, we study when the WL test is {\em complete} for clouds of euclidean points represented by complete distance graphs, i.e., when it can distinguish, up to isometry, any arbitrary such cloud. %arbitrary clouds of euclidean points represented by complete distance graphs. % How many dimensions of the Weisfeiler–Lehman test is enough to distinguish any two non-isometric point clouds in $d$-dimensional Euclidean space, assuming that these point clouds are given as complete graphs labeled by distances between the points? This question is important for understanding, which architectures of graph neural networks are capable of fully exploiting the spacial structure of a point cloud. Our main result states that the $(d-1)$-dimensional WL test is complete for point clouds in $d$-dimensional Euclidean space, for any $d\ge 2$, and that only three iterations of the test suffice. We also observe that the $d$-dimensional WL test only requires one iteration to achieve completeness. Our paper thus provides complete understanding of the 3-dimensional case: it was shown in previous works that 1-WL is not complete in $\mathbb{R}^3$, and we show that 2-WL is complete there. We also strengthen the lower bound for 1-WL by showing that it is unable to recognize planar point clouds in $\mathbb{R}^3$. Finally, we show that 2-WL is not complete in $\mathbb{R}^6$, leaving as an open question, whether it is complete in $\mathbb{R}^{d}$ for $d = 4,5$.

arxiv情報

著者 Valentino Delle Rose,Alexander Kozachinskiy,Cristóbal Rojas,Mircea Petrache,Pablo Barceló
発行日 2025-06-12 16:46:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 05C60, 68R10, 68R12, cs.DM, cs.LG, F.2.2 | Three iterations of $(d-1)$-WL test distinguish non isometric clouds of $d$-dimensional points はコメントを受け付けていません

Lattice Climber Attack: Adversarial attacks for randomized mixtures of classifiers

要約

分類器の有限混合物(別名ランダム化アンサンブル)は、敵対的な攻撃に対する堅牢性を改善する方法として提案されています。
ただし、既存の攻撃は、この種の分類器に適していないことが示されています。
この論文では、混合物を原則的に攻撃する問題について説明し、問題の幾何学的分析(有効性と最大性)に基づいて、攻撃の2つの望ましい特性を導入します。
次に、既存の攻撃がこれらの両方のプロパティを満たしていないことを示します。
最後に、バイナリ線形設定での理論的保証を使用して、{\ em latticeクライマー攻撃}と呼ばれる新しい攻撃を導入し、合成および実際のデータセットで実験を実施することでパフォーマンスを実証します。

要約(オリジナル)

Finite mixtures of classifiers (a.k.a. randomized ensembles) have been proposed as a way to improve robustness against adversarial attacks. However, existing attacks have been shown to not suit this kind of classifier. In this paper, we discuss the problem of attacking a mixture in a principled way and introduce two desirable properties of attacks based on a geometrical analysis of the problem (effectiveness and maximality). We then show that existing attacks do not meet both of these properties. Finally, we introduce a new attack called {\em lattice climber attack} with theoretical guarantees in the binary linear setting, and demonstrate its performance by conducting experiments on synthetic and real datasets.

arxiv情報

著者 Lucas Gnecco-Heredia,Benjamin Negrevergne,Yann Chevaleyre
発行日 2025-06-12 16:53:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Lattice Climber Attack: Adversarial attacks for randomized mixtures of classifiers はコメントを受け付けていません

Demystifying Spectral Feature Learning for Instrumental Variable Regression

要約

ノンパラメトリックインストゥルメンタル変数(IV)回帰を使用して、隠された交絡因子の存在下での因果効果推定の問題に対処します。
主要な戦略では、スペクトル機能、つまり、処理を機器にリンクするオペレーターの最上位の固有空間にまたがる学習された機能を採用しています。
スペクトル機能に基づいて2段の最小二乗推定器に結合した一般化エラーを導き出し、メソッドのパフォーマンスモードと障害モードに関する洞察を得ます。
パフォーマンスは2つの重要な要因に依存し、結果の明確な分類につながることを示します。
良いシナリオでは、アプローチは最適です。
これは、強力なスペクトルアライメントで発生します。つまり、構造関数は、この演算子のゆっくりした固有値減衰と組み合わせて、強力な機器を示す条件演算子の最上位の固有権によって十分に表現されています。
悪いシナリオでのパフォーマンスの低下:スペクトルアライメントは引き続き強力ですが、急速な固有値減衰(より弱い機器を示す)には、効果的な機能学習のために大幅に多くのサンプルが必要です。
最後に、ugいシナリオでは、スペクトルアライメントが弱いため、固有値の特性に関係なく、メソッドが失敗します。
私たちの合成実験は、この分類法を経験的に検証します。

要約(オリジナル)

We address the problem of causal effect estimation in the presence of hidden confounders, using nonparametric instrumental variable (IV) regression. A leading strategy employs spectral features – that is, learned features spanning the top eigensubspaces of the operator linking treatments to instruments. We derive a generalization error bound for a two-stage least squares estimator based on spectral features, and gain insights into the method’s performance and failure modes. We show that performance depends on two key factors, leading to a clear taxonomy of outcomes. In a good scenario, the approach is optimal. This occurs with strong spectral alignment, meaning the structural function is well-represented by the top eigenfunctions of the conditional operator, coupled with this operator’s slow eigenvalue decay, indicating a strong instrument. Performance degrades in a bad scenario: spectral alignment remains strong, but rapid eigenvalue decay (indicating a weaker instrument) demands significantly more samples for effective feature learning. Finally, in the ugly scenario, weak spectral alignment causes the method to fail, regardless of the eigenvalues’ characteristics. Our synthetic experiments empirically validate this taxonomy.

arxiv情報

著者 Dimitri Meunier,Antoine Moulin,Jakub Wornbard,Vladimir R. Kostic,Arthur Gretton
発行日 2025-06-12 17:06:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME, stat.ML | Demystifying Spectral Feature Learning for Instrumental Variable Regression はコメントを受け付けていません

Probably Approximately Correct Labels

要約

高品質のラベル付きデータセットを取得することは、多くの場合、費用がかかるため、広範な人間の注釈または高価な実験が必要です。
このような「専門家」のラベルを、事前に訓練を受けたモデルからのAI予測を補完する方法を提案し、ラベル付きデータセットをより費用対効果に構築します。
私たちのアプローチは、おそらくほぼ正しいラベルをもたらします。確率が高いと、全体的な標識誤差が小さくなります。
このソリューションにより、最新のAIモデルを使用した厳密で効率的なデータセットキュレーションが可能になります。
大規模な言語モデルを使用したテキスト注釈、事前に訓練された視覚モデルによる画像ラベル付け、およびAlphaFoldによるタンパク質折りたたみ分析を通じて、方法論の利点を実証します。

要約(オリジナル)

Obtaining high-quality labeled datasets is often costly, requiring either extensive human annotation or expensive experiments. We propose a method that supplements such ‘expert’ labels with AI predictions from pre-trained models to construct labeled datasets more cost-effectively. Our approach results in probably approximately correct labels: with high probability, the overall labeling error is small. This solution enables rigorous yet efficient dataset curation using modern AI models. We demonstrate the benefits of the methodology through text annotation with large language models, image labeling with pre-trained vision models, and protein folding analysis with AlphaFold.

arxiv情報

著者 Emmanuel J. Candès,Andrew Ilyas,Tijana Zrnic
発行日 2025-06-12 17:16:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Probably Approximately Correct Labels はコメントを受け付けていません

NoLoCo: No-all-reduce Low Communication Training Method for Large Models

要約

通常、大規模な言語モデルのトレーニングは、数万の加速器を含むクラスターの最適化方法を介して行われ、高帯域幅の相互接続を通信します。
これらのクラスターをスケーリングすることは高価であり、非現実的で、訓練できるモデルのサイズに制限を課すことができます。
いくつかの最近の研究では、コミュニケーション集約的でないトレーニング方法が提案されており、高度に接続された計算クラスターの必要性を回避しています。
これらの最先端の低い通信トレーニング方法は、モデルパラメーターの同期ステップを依然として採用しています。これは、すべてのモデルレプリカで実行されると、低帯域幅ネットワークでコストがかかります。
この作業では、トレーニング中にすべてのモデルパラメーターを明示的に同期せず、その結果、集合的なコミュニケーションを必要としない新しい最適化方法Nolocoを提案します。
Nolocoは、ランダムに選択された他のものとモデルの重みを部分的に平均化することにより、Nesterov Momentum Optimizerの新しいバリアントを介してモデルの重みを暗黙的に同期します。
提案されたオプティマイザーの理論的収束分析と、言語モデルトレーニングの経験的結果の両方を提供します。
Nolocoは、125mから6.8bのパラメーターの間の幅広いアクセラレータ数とモデルサイズに基づいています。
私たちの方法では、完全にシャードされたデータパラレルトレーニングや広く使用されている低コミュニケーショントレーニング方法であるDilocoよりも、通信オーバーヘッドが大幅に少ない必要があります。
同期ステップ自体は、インターネット上でトレーニングする数百人の加速器のために、ディロコで使用されている全レデュースよりも1つのマグニチュードであると推定されます。
また、アクセラレータのアイドリング時間を短縮するグローバルブロッキング通信もありません。
ディロコと比較して、幅広いモデルサイズとアクセラレータカウントを備えた最大$ 4 \%$の収束率も観察します。

要約(オリジナル)

Training large language models is generally done via optimization methods on clusters containing tens of thousands of accelerators, communicating over a high-bandwidth interconnect. Scaling up these clusters is expensive and can become impractical, imposing limits on the size of models that can be trained. Several recent studies have proposed training methods that are less communication intensive, avoiding the need for a highly connected compute cluster. These state-of-the-art low communication training methods still employ a synchronization step for model parameters, which, when performed over all model replicas, can become costly on a low-bandwidth network. In this work, we propose a novel optimization method, NoLoCo, that does not explicitly synchronize all model parameters during training and, as a result, does not require any collective communication. NoLoCo implicitly synchronizes model weights via a novel variant of the Nesterov momentum optimizer by partially averaging model weights with a randomly selected other one. We provide both a theoretical convergence analysis for our proposed optimizer as well as empirical results from language model training. We benchmark NoLoCo on a wide range of accelerator counts and model sizes, between 125M to 6.8B parameters. Our method requires significantly less communication overhead than fully sharded data parallel training or even widely used low communication training method, DiLoCo. The synchronization step itself is estimated to be one magnitude faster than the all-reduce used in DiLoCo for few hundred accelerators training over the internet. We also do not have any global blocking communication that reduces accelerator idling time. Compared to DiLoCo, we also observe up to $4\%$ faster convergence rate with wide range of model sizes and accelerator counts.

arxiv情報

著者 Jari Kolehmainen,Nikolay Blagoev,John Donaghy,Oğuzhan Ersoy,Christopher Nies
発行日 2025-06-12 17:23:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | NoLoCo: No-all-reduce Low Communication Training Method for Large Models はコメントを受け付けていません

Foundation Models for Causal Inference via Prior-Data Fitted Networks

要約

以前のデータフィットネットワーク(PFN)は、最近、表形式の基礎モデルを訓練する有望な方法として提案されています。
PFNは、事前に指定された事前分布から生成された合成データで事前に訓練された変圧器であり、コンテキスト内学習を通じてベイジアン推論を可能にします。
この論文では、さまざまな因果推論設定でPFNベースの基礎モデルをトレーニングするための包括的なフレームワークであるCasualFMを紹介します。
まず、原則的な方法で構造因果モデル(SCM)に基づいた因果推論のためのベイジアン事前層の構築を正式にし、そのような事前症の妥当性に必要な基準を導き出します。
これに基づいて、因果関係に触発されたベイジアンニューラルネットワークを使用して、因果関係を使用して、バックドア、フロントドア、機器の可変調整など、さまざまな設定でベイジアン因果推論を実行できるようにする、以前の分布の新しいファミリーを提案します。
最後に、因果関係をインスタンス化し、バックドア調整を使用して条件付き平均治療効果(CATES)を推定するための基礎モデルを明示的にトレーニングします。
因果関係は、さまざまな合成および半合成ベンチマークを使用して、CATE推定のために競合することを示しています。
要するに、私たちのフレームワークは、さまざまな因果推論設定の基礎モデルをトレーニングするための一般的なレシピとして使用できます。
現在の最先端の因果推論とは対照的に、因果関係は、医学、経済学、およびその他の分野における因果的推論を根本的に変える可能性のある新しいパラダイムを提供します。

要約(オリジナル)

Prior-data fitted networks (PFNs) have recently been proposed as a promising way to train tabular foundation models. PFNs are transformers that are pre-trained on synthetic data generated from a prespecified prior distribution and that enable Bayesian inference through in-context learning. In this paper, we introduce CausalFM, a comprehensive framework for training PFN-based foundation models in various causal inference settings. First, we formalize the construction of Bayesian priors for causal inference based on structural causal models (SCMs) in a principled way and derive necessary criteria for the validity of such priors. Building on this, we propose a novel family of prior distributions using causality-inspired Bayesian neural networks that enable CausalFM to perform Bayesian causal inference in various settings, including back-door, front-door, and instrumental variable adjustment. Finally, we instantiate CausalFM and explicitly train a foundation model for estimating conditional average treatment effects (CATEs) using back-door adjustment. We show that CausalFM performs competitively for CATE estimation using various synthetic and semi-synthetic benchmarks. In sum, our framework can be used as a general recipe to train foundation models for various causal inference settings. In contrast to the current state-of-the-art in causal inference, CausalFM offers a novel paradigm with the potential to fundamentally change how practitioners perform causal inference in medicine, economics, and other disciplines.

arxiv情報

著者 Yuchen Ma,Dennis Frauen,Emil Javurek,Stefan Feuerriegel
発行日 2025-06-12 17:29:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Foundation Models for Causal Inference via Prior-Data Fitted Networks はコメントを受け付けていません

Sequential-Parallel Duality in Prefix Scannable Models

要約

最新のニューラルシーケンスモデルは、並列化可能なトレーニングと高速順次推論の二重の任務を満たすように設計されています。
最近の開発は、そのような「シーケンシャル平行二重性」を達成するゲート線形注意(GLA)やマンバなどのさまざまなモデルを生み出しています。これは自然な疑問を提起します。
まず、このようなモデルの広範なクラス(状態空間モデル)を説明することから、カスタム連想集合体演算子を使用した古典的な並列プレフィックススキャンアルゴリズムを使用して状態更新を計算できるものとして説明することから始めます。
次に、SoftMaxの注意などの任意の(潜在的に非共同的)機能を可能にするために、状態集約演算子を緩和することにより、より一般的なクラスであるプレフィックススカンド可能モデル(PSM)を定義します。
この一般化は、要素ごとのRNN(MAMBAなど)や線形変圧器(例:GLA、MAMBA2、MLSTM)を含む多くの既存のアーキテクチャを統合し、O(1)償却型の断片化されたメモリを実現するO(1)償却型のメモリを達成するSoftMax様オペレーターを持つ新しいモデルを導入し、そのようなモデルを評価します。
州の追跡と連想リコールを含む合成タスク。
経験的には、PSMは、状態空間モデルの推論効率と一致しながら、変圧器ベースのアーキテクチャの表現性を保持していることがわかります。

要約(オリジナル)

Modern neural sequence models are designed to meet the dual mandate of parallelizable training and fast sequential inference. Recent developments have given rise to various models, such as Gated Linear Attention (GLA) and Mamba, that achieve such “sequential-parallel duality.” This raises a natural question: can we characterize the full class of neural sequence models that support near-constant-time parallel evaluation and linear-time, constant-space sequential inference? We begin by describing a broad class of such models — state space models — as those whose state updates can be computed using the classic parallel prefix scan algorithm with a custom associative aggregation operator. We then define a more general class, Prefix-Scannable Models (PSMs), by relaxing the state aggregation operator to allow arbitrary (potentially non-associative) functions such as softmax attention. This generalization unifies many existing architectures, including element-wise RNNs (e.g., Mamba) and linear transformers (e.g., GLA, Mamba2, mLSTM), while also introducing new models with softmax-like operators that achieve O(1) amortized compute per token and log(N) memory for sequence length N. We empirically evaluate such models on illustrative small-scale language modeling and canonical synthetic tasks, including state tracking and associative recall. Empirically, we find that PSMs retain the expressivity of transformer-based architectures while matching the inference efficiency of state space models — in some cases exhibiting better length generalization than either.

arxiv情報

著者 Morris Yau,Sharut Gupta,Valerie Engelmayer,Kazuki Irie,Stefanie Jegelka,Jacob Andreas
発行日 2025-06-12 17:32:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Sequential-Parallel Duality in Prefix Scannable Models はコメントを受け付けていません

Investigating the Relationship Between Physical Activity and Tailored Behavior Change Messaging: Connecting Contextual Bandit with Large Language Models

要約

コンテキストマルチアライムバンディット(CMAB)アルゴリズムなどの機械学習アプローチは、身体活動を促進するためにパーソナライズされた介入を提供することにより、座りがちな行動を減らすための有望な戦略を提供します。
ただし、CMABアルゴリズムは通常、効果的に学習するために大規模な参加者サンプルを必要とし、モデルで明示的にエンコードされていない重要な心理的要因を見落とす可能性があります。
この研究では、介入タイプを大規模な言語モデル(LLM)で選択するためにCMABを組み合わせてメッセージコンテンツをパーソナライズするハイブリッドアプローチを提案します。
4つの介入タイプを評価します:行動自己監視、利益フレーム、損失フレーム、および社会的比較。それぞれが、身体活動と毎日のステップカウントの動機を高めることを目的とした動機付けのメッセージとして提供されます。
メッセージコンテンツは、自己効力感、社会的影響、規制の焦点の毎日の変動を含む動的なコンテキスト要因を使用して、さらにパーソナライズされます。
7日間の試験で、参加者は4つのモデルのいずれかによって割り当てられた毎日のメッセージを受け取ります:CMAB単独、LLM単独、CMABとLLMパーソナライゼーション(CMABXLLM)を組み合わせた、または等しいランダム化(RCT)。
結果には、生態学的な瞬間評価(EMA)を介して評価される毎日のステップカウントとメッセージの受け入れが含まれます。
因果推論フレームワークを適用して、各モデルの効果を評価します。
私たちの調査結果は、パーソナライズされた行動メッセージを通じて身体活動を促進する際のLLMベースのパーソナライズとCMAB適応の補完的な役割に関する新しい洞察を提供します。

要約(オリジナル)

Machine learning approaches, such as contextual multi-armed bandit (cMAB) algorithms, offer a promising strategy to reduce sedentary behavior by delivering personalized interventions to encourage physical activity. However, cMAB algorithms typically require large participant samples to learn effectively and may overlook key psychological factors that are not explicitly encoded in the model. In this study, we propose a hybrid approach that combines cMAB for selecting intervention types with large language models (LLMs) to personalize message content. We evaluate four intervention types: behavioral self-monitoring, gain-framed, loss-framed, and social comparison, each delivered as a motivational message aimed at increasing motivation for physical activity and daily step count. Message content is further personalized using dynamic contextual factors including daily fluctuations in self-efficacy, social influence, and regulatory focus. Over a seven-day trial, participants receive daily messages assigned by one of four models: cMAB alone, LLM alone, combined cMAB with LLM personalization (cMABxLLM), or equal randomization (RCT). Outcomes include daily step count and message acceptance, assessed via ecological momentary assessments (EMAs). We apply a causal inference framework to evaluate the effects of each model. Our findings offer new insights into the complementary roles of LLM-based personalization and cMAB adaptation in promoting physical activity through personalized behavioral messaging.

arxiv情報

著者 Haochen Song,Dominik Hofer,Rania Islambouli,Laura Hawkins,Ananya Bhattacharjee,Meredith Franklin,Joseph Jay Williams
発行日 2025-06-12 17:37:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.LG, stat.AP | Investigating the Relationship Between Physical Activity and Tailored Behavior Change Messaging: Connecting Contextual Bandit with Large Language Models はコメントを受け付けていません