Contrastive Representation Learning Helps Cross-institutional Knowledge Transfer: A Study in Pediatric Ventilation Management

要約

患者の集団や臨床診療が大幅に異なる場合、機関間の臨床機械学習の展開は重大な課題に直面しています。
一般的な小児集中治療室(PICU)と心臓向けユニットの間の小児換気管理を通じて実証された臨床時系列における制度間の知識移転のための体系的な枠組みを提示します。
表現学習のための対照的な予測コーディング(CPC)を使用して、さまざまなデータレジームと微調整戦略が制度の境界を越えた知識の移転にどのように影響するかを調査します。
私たちの結果は、直接モデル転送のパフォーマンスが低いことを示していますが、適切な微調整を伴うCPCにより、機関間で効果的な知識共有が可能になり、限られたデータシナリオで特に明白な利点があります。
トランスファーパターンの分析により、重要な非対称性が明らかになります。時間的進行パターンは、ポイントオブケアの決定よりも容易に伝達され、制度間の展開のための実用的な経路を示唆しています。
微調整アプローチと転送パターンの体系的な評価を通じて、私たちの仕事は、より一般化可能な臨床意思決定支援システムを開発すると同時に、より小さな特殊なユニットがより大きなセンターからの知識を活用できるようにするための洞察を提供します。

要約(オリジナル)

Clinical machine learning deployment across institutions faces significant challenges when patient populations and clinical practices differ substantially. We present a systematic framework for cross-institutional knowledge transfer in clinical time series, demonstrated through pediatric ventilation management between a general pediatric intensive care unit (PICU) and a cardiac-focused unit. Using contrastive predictive coding (CPC) for representation learning, we investigate how different data regimes and fine-tuning strategies affect knowledge transfer across institutional boundaries. Our results show that while direct model transfer performs poorly, CPC with appropriate fine-tuning enables effective knowledge sharing between institutions, with benefits particularly evident in limited data scenarios. Analysis of transfer patterns reveals an important asymmetry: temporal progression patterns transfer more readily than point-of-care decisions, suggesting practical pathways for cross-institutional deployment. Through a systematic evaluation of fine-tuning approaches and transfer patterns, our work provides insights for developing more generalizable clinical decision support systems while enabling smaller specialized units to leverage knowledge from larger centers.

arxiv情報

著者 Yuxuan Liu,Jinpei Han,Padmanabhan Ramnarayan,A. Aldo Faisal
発行日 2025-01-27 15:30:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク