要約
集中治療室 (ICU) は、生命を脅かす状態の患者に綿密な監督と継続的なケアを提供します。
しかし、ICU での継続的な患者評価は、時間の制約と医療従事者の負担により依然として制限されています。
ICU における痛みや可動性の評価などの既存の患者評価は、ほとんどが散発的であり、手作業で行われているため、人的ミスが発生する可能性があります。
ICU における人間による評価を強化できる人工知能 (AI) ツールの開発は、より客観的で詳細なモニタリング機能を提供するのに有益です。
たとえば、痛みや興奮に関連する患者の顔の変化を捉えることは、痛みに関連した薬の調整や、せん妄などの興奮を引き起こす症状の検出に役立ちます。
さらに、有害な臨床事象中またはその前の視覚的手がかりの微妙な変化は、高解像度の生理学的信号および電子健康記録 (EHR) データと組み合わせることで、継続的な患者モニタリングに役立つ可能性があります。
この論文では、視覚的手がかりと、視力状態、急性脳機能障害、痛みなどの患者の状態との関連性を検討しました。
私たちは、訓練を受けたアノテーターによって顔動作ユニット (AU) ラベルが付けられた ICU で収集された 107,064 フレームを含む AU-ICU データセットを活用しました。
私たちは、データ リソースの使用率を最大化することでデータの不均衡問題に対処する、新しい「マスクされた損失計算」技術を開発しました。
AU-ICU データセットと 3 つの外部データセットを組み合わせてモデルをトレーニングし、18 AU を検出しました。
SWIN Transformer モデルは、テスト セットで平均 F1 スコア 0.57 と平均精度 0.89 を達成しました。
さらに、634,054 フレームで AU 推論を実行し、顔の AU と、視力状態、急性脳機能障害、痛みなどの臨床的に重要な患者の状態との関連性を評価しました。
要約(オリジナル)
Intensive Care Units (ICU) provide close supervision and continuous care to patients with life-threatening conditions. However, continuous patient assessment in the ICU is still limited due to time constraints and the workload on healthcare providers. Existing patient assessments in the ICU such as pain or mobility assessment are mostly sporadic and administered manually, thus introducing the potential for human errors. Developing Artificial intelligence (AI) tools that can augment human assessments in the ICU can be beneficial for providing more objective and granular monitoring capabilities. For example, capturing the variations in a patient’s facial cues related to pain or agitation can help in adjusting pain-related medications or detecting agitation-inducing conditions such as delirium. Additionally, subtle changes in visual cues during or prior to adverse clinical events could potentially aid in continuous patient monitoring when combined with high-resolution physiological signals and Electronic Health Record (EHR) data. In this paper, we examined the association between visual cues and patient condition including acuity status, acute brain dysfunction, and pain. We leveraged our AU-ICU dataset with 107,064 frames collected in the ICU annotated with facial action units (AUs) labels by trained annotators. We developed a new ‘masked loss computation’ technique that addresses the data imbalance problem by maximizing data resource utilization. We trained the model using our AU-ICU dataset in conjunction with three external datasets to detect 18 AUs. The SWIN Transformer model achieved 0.57 mean F1-score and 0.89 mean accuracy on the test set. Additionally, we performed AU inference on 634,054 frames to evaluate the association between facial AUs and clinically important patient conditions such as acuity status, acute brain dysfunction, and pain.
arxiv情報
著者 | Subhash Nerella,Ziyuan Guan,Andrea Davidson,Yuanfang Ren,Tezcan Baslanti,Brooke Armfield,Patrick Tighe,Azra Bihorac,Parisa Rashidi |
発行日 | 2024-07-12 15:05:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google