HopCast: Calibration of Autoregressive Dynamics Models

要約

深い学習モデルは、多くの場合、微分方程式を使用してモデル化できる動的システムを近似するように訓練されています。
これらのモデルの多くは、一歩先を行くために最適化されています。
このようなアプローチは、予測モデルが深いアンサンブルなどの不確実性を定量化できる場合、校正されたワンステップ予測を生成します。
推論時に、マルチステップの予測は自己網目上で生成されます。自己網目は、較正されたマルチステップ予測を生成するための不確実性伝播方法が必要です。
この作業では、最新のホップフィールドネットワーク(MHN)を使用して、動的システムに近似する決定論的予測因子の誤差を学習する\ HOP {}という名前の代替予測因子保証アプローチを紹介します。
修正器は、自己網目上の任意のタイムステップでのコンテキスト状態に基づいて、予測子の出力の一連のエラーを予測します。
エラーのセットは、不確実性の伝播のないベースラインと比較して、より高い予測精度で、よりシャープで校正された予測間隔を作成します。
キャリブレーションと予測のパフォーマンスは、一連の動的システム全体で評価されます。
この作業は、キャリブレーションエラーに基づいて既存の不確実性伝播方法をベンチマークする最初の作業でもあります。

要約(オリジナル)

Deep learning models are often trained to approximate dynamical systems that can be modeled using differential equations. Many of these models are optimized to predict one step ahead; such approaches produce calibrated one-step predictions if the predictive model can quantify uncertainty, such as Deep Ensembles. At inference time, multi-step predictions are generated via autoregression, which needs a sound uncertainty propagation method to produce calibrated multi-step predictions. This work introduces an alternative Predictor-Corrector approach named \hop{} that uses Modern Hopfield Networks (MHN) to learn the errors of a deterministic Predictor that approximates the dynamical system. The Corrector predicts a set of errors for the Predictor’s output based on a context state at any timestep during autoregression. The set of errors creates sharper and well-calibrated prediction intervals with higher predictive accuracy compared to baselines without uncertainty propagation. The calibration and prediction performances are evaluated across a set of dynamical systems. This work is also the first to benchmark existing uncertainty propagation methods based on calibration errors.

arxiv情報

著者 Muhammad Bilal Shahid,Cody Fleming
発行日 2025-05-23 16:45:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | HopCast: Calibration of Autoregressive Dynamics Models はコメントを受け付けていません

Dynamic Dual Buffer with Divide-and-Conquer Strategy for Online Continual Learning

要約

オンライン継続学習(OCL)は、新しいデータがバッチからバッチまでのオンライン形式に到着する複雑な学習環境を提示し、壊滅的な忘却のリスクはモデルの有効性を大幅に損なう可能性があります。
この研究では、動的な情報と長期メモリシステムを保持する短期メモリシステムを組み込んだ革新的なメモリフレームワークと、永続的な知識をアーカイブするための革新的なメモリフレームワークを導入することにより、OCLに対処します。
具体的には、長期メモリシステムは、それぞれクラスタープロトタイプにリンクされ、異なるカテゴリからデータサンプルを保持するように設計されたサブメモリバッファーのコレクションで構成されています。
触れた各カテゴリのクラスタープロトタイプを識別するための新しい$ k $ -meansベースのサンプル選択方法を提案します。
必須および重要なサンプルを保護するために、最適な輸送メカニズムを介して各クラスタープロトタイプを着信サンプルに対して評価することにより、適切なサブメモリーバッファーにサンプルを選択的に保持する新しいメモリ最適化戦略を導入します。
このアプローチは、各サブメモリバッファーを促進して、対応するクラスタープロトタイプから有意な矛盾を示すデータサンプルを保持し、それにより、意味的に豊富な情報の保存を保証します。
さらに、メモリの更新を最適化の問題として定式化し、それをいくつかのサブ問題に分割する新しい分割(DAC)アプローチを提案します。
その結果、提案されたDACアプローチはこれらのサブ問題を個別に解決できるため、提案されたメモリ更新プロセスの計算を大幅に削減できます。
標準的および不均衡な学習設定を介して一連の実験を実施し、経験的な調査結果は、提案されたメモリフレームワークが両方の学習コンテキストで最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

Online Continual Learning (OCL) presents a complex learning environment in which new data arrives in a batch-to-batch online format, and the risk of catastrophic forgetting can significantly impair model efficacy. In this study, we address OCL by introducing an innovative memory framework that incorporates a short-term memory system to retain dynamic information and a long-term memory system to archive enduring knowledge. Specifically, the long-term memory system comprises a collection of sub-memory buffers, each linked to a cluster prototype and designed to retain data samples from distinct categories. We propose a novel $K$-means-based sample selection method to identify cluster prototypes for each encountered category. To safeguard essential and critical samples, we introduce a novel memory optimisation strategy that selectively retains samples in the appropriate sub-memory buffer by evaluating each cluster prototype against incoming samples through an optimal transportation mechanism. This approach specifically promotes each sub-memory buffer to retain data samples that exhibit significant discrepancies from the corresponding cluster prototype, thereby ensuring the preservation of semantically rich information. In addition, we propose a novel Divide-and-Conquer (DAC) approach that formulates the memory updating as an optimisation problem and divides it into several subproblems. As a result, the proposed DAC approach can solve these subproblems separately and thus can significantly reduce computations of the proposed memory updating process. We conduct a series of experiments across standard and imbalanced learning settings, and the empirical findings indicate that the proposed memory framework achieves state-of-the-art performance in both learning contexts.

arxiv情報

著者 Congren Dai,Huichi Zhou,Jiahao Huang,Zhenxuan Zhang,Fanwen Wang,Guang Yang,Fei Ye
発行日 2025-05-23 16:57:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Dynamic Dual Buffer with Divide-and-Conquer Strategy for Online Continual Learning はコメントを受け付けていません

Semi-Supervised Model-Free Bayesian State Estimation from Compressed Measurements

要約

モデルのないプロセスの圧縮測定(BSCM)からのデータ駆動型ベイジアン状態の推定を検討します。
時間測定ベクターの次元は、推定される側頭状態ベクターの次元よりも低く、決定不足の逆問題につながります。
州の進化の基礎となる動的モデルは、「モデルのないプロセス」では不明です。
したがって、たとえば、カルマンや粒子フィルターなど、従来のモデル駆動型の方法を使用することは困難です。
代わりに、データ駆動型の方法を検討します。
2つの既存の監視されていない学習ベースのデータ駆動型メソッドが、モデルのないプロセスでBSCM問題に対処できないことを実験的に示します。
方法は、データ駆動型の非線形状態推定(DANSE)およびディープマルコフモデル(DMM)です。
Danseは、時間系列として時間測定データをモデル化するために優れた予測/予測パフォーマンスを提供しますが、監視されていない学習には、BSCMタスクに取り組むのに適した正則化がありません。
次に、半教師の学習アプローチを提案し、Semidanseと呼ばれる半教師の学習ベースのDanseメソッドを開発します。
Semidanseでは、限られた量のラベル付きデータ、つまり目的の正則化を提供するペアワイズ測定と状態のデータとともに、大量の非標識データを使用します。
3つのベンチマークダイナミカルシステムを使用して、データ駆動型のSemidanseが、動的モデルを正確に知っているカルマネットと2つのモデル駆動型メソッド(拡張カルマンフィルターと無濃縮カルマンフィルター)と呼ばれるハイブリッドメソッドに対して、少数の異なる測定システムを使用してBSCMの競合状態推定パフォーマンスを提供することを経験的に示します。

要約(オリジナル)

We consider data-driven Bayesian state estimation from compressed measurements (BSCM) of a model-free process. The dimension of the temporal measurement vector is lower than that of the temporal state vector to be estimated, leading to an under-determined inverse problem. The underlying dynamical model of the state’s evolution is unknown for a ‘model-free process.’ Hence, it is difficult to use traditional model-driven methods, for example, Kalman and particle filters. Instead, we consider data-driven methods. We experimentally show that two existing unsupervised learning-based data-driven methods fail to address the BSCM problem in a model-free process. The methods are — data-driven nonlinear state estimation (DANSE) and deep Markov model (DMM). While DANSE provides good predictive/forecasting performance to model the temporal measurement data as a time series, its unsupervised learning lacks suitable regularization for tackling the BSCM task. We then propose a semi-supervised learning approach and develop a semi-supervised learning-based DANSE method, referred to as SemiDANSE. In SemiDANSE, we use a large amount of unlabelled data along with a limited amount of labelled data, i.e., pairwise measurement-and-state data, which provides the desired regularization. Using three benchmark dynamical systems, we empirically show that the data-driven SemiDANSE provides competitive state estimation performance for BSCM using a handful of different measurement systems, against a hybrid method called KalmanNet and two model-driven methods (extended Kalman filter and unscented Kalman filter) that know the dynamical models exactly.

arxiv情報

著者 Anubhab Ghosh,Yonina C. Eldar,Saikat Chatterjee
発行日 2025-05-23 16:59:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | Semi-Supervised Model-Free Bayesian State Estimation from Compressed Measurements はコメントを受け付けていません

Beyond Discreteness: Finite-Sample Analysis of Straight-Through Estimator for Quantization

要約

トレーニング量子化されたニューラルネットワークには、基礎となる最適化問題の非分化不可能で離散的な性質に対処する必要があります。
この課題に取り組むために、ストレートスルー推定器(STE)は最も広く採用されているヒューリスティックになり、代理勾配を導入することにより、離散操作を通じてバックプロパゲーションを可能にします。
ただし、その理論的特性はほとんど未踏のままであり、無限の量のトレーニングデータを想定することにより分析を簡素化する既存の研究はほとんどありません。
対照的に、この作業は、ニューラルネットワークの量子化のコンテキストにおけるSTEの最初の有限サンプル分析を示しています。
当社の理論的結果は、STEの成功におけるサンプルサイズの重要な役割を強調しています。これは、既存の研究に欠けている重要な洞察です。
具体的には、バイナリの重みと活性化を備えた2層ニューラルネットワークの量子化対応トレーニングを分析することにより、STEベースの最適化の収束をグローバル最小値に保証するデータ次元の観点からサンプルの複雑さを導き出します。
さらに、ラベルノイズの存在下で、繰り返しが繰り返し逃げ出し、最適なバイナリウェイトに戻る、段階的方法の興味深い再発特性を明らかにします。
私たちの分析は、圧縮センシングと動的システム理論のツールを活用しています。

要約(オリジナル)

Training quantized neural networks requires addressing the non-differentiable and discrete nature of the underlying optimization problem. To tackle this challenge, the straight-through estimator (STE) has become the most widely adopted heuristic, allowing backpropagation through discrete operations by introducing surrogate gradients. However, its theoretical properties remain largely unexplored, with few existing works simplifying the analysis by assuming an infinite amount of training data. In contrast, this work presents the first finite-sample analysis of STE in the context of neural network quantization. Our theoretical results highlight the critical role of sample size in the success of STE, a key insight absent from existing studies. Specifically, by analyzing the quantization-aware training of a two-layer neural network with binary weights and activations, we derive the sample complexity bound in terms of the data dimensionality that guarantees the convergence of STE-based optimization to the global minimum. Moreover, in the presence of label noises, we uncover an intriguing recurrence property of STE-gradient method, where the iterate repeatedly escape from and return to the optimal binary weights. Our analysis leverages tools from compressed sensing and dynamical systems theory.

arxiv情報

著者 Halyun Jeong,Jack Xin,Penghang Yin
発行日 2025-05-23 17:11:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | Beyond Discreteness: Finite-Sample Analysis of Straight-Through Estimator for Quantization はコメントを受け付けていません

Scalable Policy Maximization Under Network Interference

要約

臨床試験でのワクチンやオンライン市場のクーポンなどの多くの介入は、その効果を完全に知ることなく順次割り当てなければなりません。
マルチアームのBanditアルゴリズムは、このような設定で成功していることが証明されています。
ただし、1つの個人の治療状態が他の結果、つまり干渉として知られる現象に影響を与えると、標準的な独立性の仮定が失敗します。
動的ネットワーク上の干渉下で最適なポリシー学習を研究しています。
この問題への既存のアプローチには、同じ固定ネットワークの繰り返しの観測が必要であり、サンプルサイズでスケーリングするのに苦労して、わずか15の接続ユニットを超えています。どちらもアプリケーションを制限しています。
干渉の構造に関する一般的な仮定の下で、報酬が線形になることを示します。
これにより、新しい$ n $ -Nodeネットワークが各ラウンドで観察されると、ポリシーの影響を最大化するスケーラブルなThompsonサンプリングアルゴリズムを開発できます。
私たちは、$ n $とラウンド数でサブリニアであるベイジアンの後悔の拘束力を証明します。
シミュレーション実験は、アルゴリズムが迅速に学習し、既存の方法を上回ることを示しています。
結果は、干渉の因果推論方法と実用的な盗賊アルゴリズムの間の重要なスケーラビリティギャップを埋め、大規模なネットワークシステムでのポリシーの最適化を可能にします。

要約(オリジナル)

Many interventions, such as vaccines in clinical trials or coupons in online marketplaces, must be assigned sequentially without full knowledge of their effects. Multi-armed bandit algorithms have proven successful in such settings. However, standard independence assumptions fail when the treatment status of one individual impacts the outcomes of others, a phenomenon known as interference. We study optimal-policy learning under interference on a dynamic network. Existing approaches to this problem require repeated observations of the same fixed network and struggle to scale in sample size beyond as few as fifteen connected units — both limit applications. We show that under common assumptions on the structure of interference, rewards become linear. This enables us to develop a scalable Thompson sampling algorithm that maximizes policy impact when a new $n$-node network is observed each round. We prove a Bayesian regret bound that is sublinear in $n$ and the number of rounds. Simulation experiments show that our algorithm learns quickly and outperforms existing methods. The results close a key scalability gap between causal inference methods for interference and practical bandit algorithms, enabling policy optimization in large-scale networked systems.

arxiv情報

著者 Aidan Gleich,Eric Laber,Alexander Volfovsky
発行日 2025-05-23 17:19:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Scalable Policy Maximization Under Network Interference はコメントを受け付けていません

OneProt: Towards Multi-Modal Protein Foundation Models

要約

人工知能の最近の進歩により、マルチモーダルシステムは多様な情報スペースをモデル化および翻訳することができました。
テキストとビジョンを超えて拡張して、構造、シーケンス、テキスト、および結合サイトデータを統合するタンパク質のマルチモーダルAIであるOneProtを紹介します。
ImageBindフレームワークを使用して、OneProtは、完全な一致を必要とするのではなく、シーケンスデータとのペアワイズアライメントに焦点を当てる軽量の微調整スキームに、タンパク質モダリティエンコーダーの潜在スペースを整列させます。
この新しいアプローチは、グラフニューラルネットワークとトランスアーキテクチャの組み合わせで構成されています。
検索タスクの強力なパフォーマンスを実証し、酵素機能予測や結合部位分析を含む幅広い下流のベースラインを通じて、タンパク質機械学習におけるマルチモーダルシステムの有効性を紹介します。
さらに、OneProtは、特殊なエンコーダーからシーケンスエンコーダーへの表現情報の転送を可能にし、進化的に関連していないシーケンスを区別し、進化的に関連するタンパク質が潜在空間内の同様の方向に整列する表現特性を示すための機能を強化します。
さらに、モダリティアブレーションを広範囲に調査して、予測パフォーマンスに最も貢献するエンコーダーを特定し、以前は同様のモデルで使用されていなかったバインディングサイトエンコーダーの重要性を強調しています。
この作業は、多モーダルタンパク質モデルの範囲を拡大し、創薬、生物触媒反応計画、およびタンパク質工学における変換用途への道を開いています。

要約(オリジナル)

Recent advances in Artificial Intelligence have enabled multi-modal systems to model and translate diverse information spaces. Extending beyond text and vision, we introduce OneProt, a multi-modal AI for proteins that integrates structural, sequence, text, and binding site data. Using the ImageBind framework, OneProt aligns the latent spaces of protein modality encoders in a lightweight fine-tuning scheme that focuses on pairwise alignment with sequence data rather than requiring full matches. This novel approach comprises a mix of Graph Neural Networks and transformer architectures. It demonstrates strong performance in retrieval tasks and showcases the efficacy of multi-modal systems in Protein Machine Learning through a broad spectrum of downstream baselines, including enzyme function prediction and binding site analysis. Furthermore, OneProt enables the transfer of representational information from specialized encoders to the sequence encoder, enhancing capabilities for distinguishing evolutionarily related and unrelated sequences and exhibiting representational properties where evolutionarily related proteins align in similar directions within the latent space. In addition, we extensively investigate modality ablations to identify the encoders that contribute most to predictive performance, highlighting the significance of the binding site encoder, which has not been used in similar models previously. This work expands the horizons of multi-modal protein models, paving the way for transformative applications in drug discovery, biocatalytic reaction planning, and protein engineering.

arxiv情報

著者 Klemens Flöge,Srisruthi Udayakumar,Johanna Sommer,Marie Piraud,Stefan Kesselheim,Vincent Fortuin,Stephan Günneman,Karel J van der Weg,Holger Gohlke,Erinc Merdivan,Alina Bazarova
発行日 2025-05-23 17:30:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM | OneProt: Towards Multi-Modal Protein Foundation Models はコメントを受け付けていません

Finding the Underlying Viscoelastic Constitutive Equation via Universal Differential Equations and Differentiable Physics

要約

この研究では、微分可能な物理学とともに普遍的な微分方程式(UDE)を使用して、粘弾性液をモデル化し、従来の微分方程式、ニューラルネットワーク、および数値的手法をマージして、構成モデルの欠落項を再構築します。
この研究では、合成データセットの使用を通じて、上部対応のマックスウェル(UCM)、ジョンソン・セガルマン、ジーゼクス、および指数のファン・ティエン・タナー(EPTT)の4つの粘弾性モデルの分析に焦点を当てています。
この方法論は、振動やスタートアップフローなど、さまざまな実験条件でテストされました。
UDEフレームワークは、ほとんどのモデルのせん断応力と正常応力を効果的に予測しますが、EPTTモデルに適用するといくつかの制限が示されます。
調査結果は、方法論的改善のための重要な領域を特定しながら、流体力学におけるUDEの可能性を強調しています。
また、モデル蒸留アプローチが採用され、複雑なモデルから単純化されたモデルを抽出し、レオロジーモデリングにおけるUDEの汎用性と堅牢性を強調しました。

要約(オリジナル)

This research employs Universal Differential Equations (UDEs) alongside differentiable physics to model viscoelastic fluids, merging conventional differential equations, neural networks and numerical methods to reconstruct missing terms in constitutive models. This study focuses on analyzing four viscoelastic models: Upper Convected Maxwell (UCM), Johnson-Segalman, Giesekus, and Exponential Phan-Thien-Tanner (ePTT), through the use of synthetic datasets. The methodology was tested across different experimental conditions, including oscillatory and startup flows. While the UDE framework effectively predicts shear and normal stresses for most models, it demonstrates some limitations when applied to the ePTT model. The findings underscore the potential of UDEs in fluid mechanics while identifying critical areas for methodological improvement. Also, a model distillation approach was employed to extract simplified models from complex ones, emphasizing the versatility and robustness of UDEs in rheological modeling.

arxiv情報

著者 Elias C. Rodrigues,Roney L. Thompson,Dário A. B. Oliveira,Roberto F. Ausas
発行日 2025-05-23 17:39:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.flu-dyn | Finding the Underlying Viscoelastic Constitutive Equation via Universal Differential Equations and Differentiable Physics はコメントを受け付けていません

Doubly Robust Conformalized Survival Analysis with Right-Censored Data

要約

右の検閲されたデータから生存時間の低い予測バウンドを構築するためのコンフォーマル推論方法を提示し、より制限的なタイプI検閲シナリオのために設計された最近のアプローチを拡張します。
提案された方法は、機械学習モデルを使用して観察されていない検閲時間を否定し、加重コンフォーマル推論を介して調整されたサバイバルモデルを使用して、帰属データを分析します。
このアプローチは、理論的には漸近二重堅牢性特性によってサポートされています。
シミュレートされた実際のデータに関する経験的研究は、私たちの方法が比較的有益な予測的推論につながり、サバイバルモデルが不正確である可能性のある挑戦的な設定で特に堅牢であることを示しています。

要約(オリジナル)

We present a conformal inference method for constructing lower prediction bounds for survival times from right-censored data, extending recent approaches designed for more restrictive type-I censoring scenarios. The proposed method imputes unobserved censoring times using a machine learning model, and then analyzes the imputed data using a survival model calibrated via weighted conformal inference. This approach is theoretically supported by an asymptotic double robustness property. Empirical studies on simulated and real data demonstrate that our method leads to relatively informative predictive inferences and is especially robust in challenging settings where the survival model may be inaccurate.

arxiv情報

著者 Matteo Sesia,Vladimir Svetnik
発行日 2025-05-23 17:51:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME | Doubly Robust Conformalized Survival Analysis with Right-Censored Data はコメントを受け付けていません

Generative Distribution Embeddings

要約

多くの現実世界の問題には、複数のスケールにわたる推論が必要であり、単一のデータポイントではなく分布全体で動作するモデルを要求します。
自動エンコーダーを分布の空間に持ち上げるフレームワークである生成分布埋め込み(GDE)を導入します。
GDESでは、エンコーダーがサンプルのセットに作用し、デコーダーは入力分布を一致させることを目的としたジェネレーターに置き換えられます。
このフレームワークにより、分布不変性と呼ばれる基準を満たすエンコーダーネットワークを使用して条件付き生成モデルを結合することにより、分布の学習表現を可能にします。
GDEは、ワッサースタイン空間に埋め込まれた予測的な十分な統計を学習し、潜在的なGDE距離が$ w_2 $距離をほぼ回復するようにし、潜在補間はガウスとガウスの混合物の分布の最適な輸送軌跡をほぼ回復することを示します。
合成データセット上の既存のアプローチに対してGDEを体系的にベンチマークし、一貫してより強力なパフォーマンスを示しています。
次に、計算生物学の6つの重要な問題にGDEを適用します:系統トレースデータ(150K細胞)からの細胞集団の学習表現(150K細胞)、単一細胞トランスクリプトーム(1M細胞)への摂動効果の予測、細胞表現型に対する摂動効果(20Mシングルセル画像)の摂動効果の予測、組織特異的DNA特異的DNAメチル化パターン(253mmの標識パターン(2533M)のモデル化
シーケンス)、およびウイルスタンパク質配列の時空モデリング(1Mシーケンス)。

要約(オリジナル)

Many real-world problems require reasoning across multiple scales, demanding models which operate not on single data points, but on entire distributions. We introduce generative distribution embeddings (GDE), a framework that lifts autoencoders to the space of distributions. In GDEs, an encoder acts on sets of samples, and the decoder is replaced by a generator which aims to match the input distribution. This framework enables learning representations of distributions by coupling conditional generative models with encoder networks which satisfy a criterion we call distributional invariance. We show that GDEs learn predictive sufficient statistics embedded in the Wasserstein space, such that latent GDE distances approximately recover the $W_2$ distance, and latent interpolation approximately recovers optimal transport trajectories for Gaussian and Gaussian mixture distributions. We systematically benchmark GDEs against existing approaches on synthetic datasets, demonstrating consistently stronger performance. We then apply GDEs to six key problems in computational biology: learning representations of cell populations from lineage-tracing data (150K cells), predicting perturbation effects on single-cell transcriptomes (1M cells), predicting perturbation effects on cellular phenotypes (20M single-cell images), modeling tissue-specific DNA methylation patterns (253M sequences), designing synthetic yeast promoters (34M sequences), and spatiotemporal modeling of viral protein sequences (1M sequences).

arxiv情報

著者 Nic Fishman,Gokul Gowri,Peng Yin,Jonathan Gootenberg,Omar Abudayyeh
発行日 2025-05-23 17:58:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.QM, stat.ML | Generative Distribution Embeddings はコメントを受け付けていません

MedPlan:A Two-Stage RAG-Based System for Personalized Medical Plan Generation

要約

大規模な言語モデル(LLM)を電子健康記録(EHR)に適用することに最近の成功にもかかわらず、ほとんどのシステムは、主に治療計画ではなく評価に焦点を当てています。
現在のアプローチにおける3つの重要な制限を特定します。臨床医が使用する連続的な推論プロセスに従うのではなく、単一のパスで治療計画を生成します。
患者固有の歴史的背景を組み込むことはめったにありません。
そして、彼らは主観的および客観的な臨床情報を効果的に区別することができません。
SOAP方法論(主観的、客観的、評価、計画)に動機付けられて、実際の臨床医のワークフローに合わせてLLMの推論を構成する新しいフレームワークである\ ours {}を紹介します。
私たちのアプローチは、患者の症状と客観的データに基づいて最初に臨床評価を生成する2段階のアーキテクチャを採用し、次にこの評価によって通知され、検索された生成を通じて患者固有の情報を豊かにする構造化された治療計画を策定します。
包括的な評価は、この方法が評価の精度と治療計画の品質の両方でベースラインアプローチを大幅に上回ることを示しています。

要約(オリジナル)

Despite recent success in applying large language models (LLMs) to electronic health records (EHR), most systems focus primarily on assessment rather than treatment planning. We identify three critical limitations in current approaches: they generate treatment plans in a single pass rather than following the sequential reasoning process used by clinicians; they rarely incorporate patient-specific historical context; and they fail to effectively distinguish between subjective and objective clinical information. Motivated by the SOAP methodology (Subjective, Objective, Assessment, Plan), we introduce \ours{}, a novel framework that structures LLM reasoning to align with real-life clinician workflows. Our approach employs a two-stage architecture that first generates a clinical assessment based on patient symptoms and objective data, then formulates a structured treatment plan informed by this assessment and enriched with patient-specific information through retrieval-augmented generation. Comprehensive evaluation demonstrates that our method significantly outperforms baseline approaches in both assessment accuracy and treatment plan quality.

arxiv情報

著者 Hsin-Ling Hsu,Cong-Tinh Dao,Luning Wang,Zitao Shuai,Thao Nguyen Minh Phan,Jun-En Ding,Chun-Chieh Liao,Pengfei Hu,Xiaoxue Han,Chih-Ho Hsu,Dongsheng Luo,Wen-Chih Peng,Feng Liu,Fang-Ming Hung,Chenwei Wu
発行日 2025-05-23 14:17:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | MedPlan:A Two-Stage RAG-Based System for Personalized Medical Plan Generation はコメントを受け付けていません