要約
医療時系列(MEDTS)分類は、さまざまな数のチャネル、信号長、タスク定義、患者の特性など、datatentitentitentitint inter datasetの不均一性による現実世界の展開の一般化が不十分であることに苦しんでいます。
これに対処するために、一般的な時系列で事前に訓練されたバックボーン基礎モデルを再利用するための新しいフレームワークであるFormedを提案し、目に見えないデータセットで非常に一般化可能なMEDTS分類を可能にします。
形成された形成は、バックボーンと2つのコンポーネントを含む新しい分類器を組み合わせています。(1)タスク固有のチャネル埋め込みとラベルクエリ、任意の数のチャネルとターゲットクラスに一致するように動的にサイズ、(2)タスクに触れることの特徴とQuaryの相互作用を通じて医療の知識をキャプチャするためにデータセットを共同でトレーニングします。
再利用後、Formedは、軽量ラベルクエリトレーニング(パラメーターの0.1%)を通じて、目に見えないMEDTSデータセットへのシームレスな適応を実現し、完全な微調整またはアーキテクチャの再設計の必要性を排除します。
5つの多様なMEDTSデータセットで形成された形成を評価し、11のタスク固有モデル(TSM)および4つのタスク固有の適応(TSA)メソッドに対してベンチマークを付けます。
私たちの結果は、Formedの支配的なパフォーマンスを示しており、特殊なベースラインよりもF1スコア(ADFTDデータセット)で最大35%の絶対的な改善を達成しています。
さらなる分析により、さまざまなチャネル構成、時系列の長さ、および臨床タスク全体にわたる一貫した一般化が明らかになります。これは、実際の展開における重要な課題です。
タスク固有の適応から学習を分離することにより、形成されたタスク固有の適応から学習することは、ヘルスケアで再利用する基礎モデルのためのスケーラブルでリソース効率の高いパラダイムを確立します。
このアプローチは、厳格なタスク中心の設計よりも臨床的適応性を優先し、実際の実装のための実用的な経路を提供します。
要約(オリジナル)
Medical time series (MedTS) classification suffers from poor generalizability in real-world deployment due to inter- and intra-dataset heterogeneity, such as varying numbers of channels, signal lengths, task definitions, and patient characteristics. To address this, we propose FORMED, a novel framework for repurposing a backbone foundation model, pre-trained on generic time series, to enable highly generalizable MedTS classification on unseen datasets. FORMED combines the backbone with a novel classifier comprising two components: (1) task-specific channel embeddings and label queries, dynamically sized to match any number of channels and target classes, and (2) a shared decoding attention layer, jointly trained across datasets to capture medical domain knowledge through task-agnostic feature-query interactions. After repurposing, FORMED achieves seamless adaptation to unseen MedTS datasets through lightweight label query training (0.1% of parameters), eliminating the need for full fine-tuning or architectural redesign. We evaluate FORMED on 5 diverse MedTS datasets, benchmarking against 11 Task-Specific Models (TSM) and 4 Task-Specific Adaptation (TSA) methods. Our results demonstrate FORMED’s dominant performance, achieving up to 35% absolute improvement in F1-score (on ADFTD dataset) over specialized baselines. Further analysis reveals consistent generalization across varying channel configurations, time series lengths, and clinical tasks, which are key challenges in real-world deployment. By decoupling domain-invariant representation learning from task-specific adaptation, FORMED establishes a scalable and resource-efficient paradigm for foundation model repurposing in healthcare. This approach prioritizes clinical adaptability over rigid task-centric design, offering a practical pathway for real-world implementation.
arxiv情報
著者 | Nan Huang,Haishuai Wang,Zihuai He,Marinka Zitnik,Xiang Zhang |
発行日 | 2025-05-19 17:31:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google