要約
1,059 人のユニークな参加者からの顔の表情の最大のビデオ データセットによって実現される AI 駆動モデルを活用することにより、効率的でアクセスしやすい PD スクリーニング方法を紹介します。
このデータセットには、PD 患者 256 名、臨床的に診断された 165 名、自己申告者 91 名が含まれています。
参加者はウェブカメラを使用して、複数の国の自宅、米国の診療所、米国の PD ウェルネス センターを含むさまざまな情報源から 3 つの表情 (笑顔、嫌悪感、驚き) を模倣する自分自身を録画しました。
顔のランドマークが記録から自動的に追跡され、表情の低下を特徴とする顕著な PD 症状である低顔症に関連する特徴が抽出されます。
機械学習アルゴリズムはこれらの特徴に基づいてトレーニングされ、PD を持つ人と持たない人を区別します。
このモデルは、米国の診療所とバングラデシュから収集された外部 (トレーニング中には見られない) テスト ビデオで一般化可能性についてテストされました。
笑顔ビデオでトレーニングされた機械学習モデルのアンサンブルは、保持されたデータで評価した場合 (k 分割相互検証を使用)、87.9+-0.1% (95% 信頼区間) の AUROC で 89.3+-0.3% の精度を達成しました。
。
外部検査設定では、アンサンブル モデルは、臨床検査セットでは 79.8+-0.6% の精度、81.9+-0.3% AUROC を達成し、バングラデシュの参加者では 84.9+-0.4% の精度、81.2+-0.6% AUROC を達成しました。
バングラデシュからのコホートを除いて、すべての設定において、このモデルには性別および民族サブグループにわたる検出可能なバイアスはありませんでした。バングラデシュのコホートでは、モデルは男性よりも女性参加者の方が有意に優れた結果を示しました。
笑顔のビデオは、PD のある人とない人を効果的に区別することができ、特に臨床診断が難しい場合に、PD をスクリーニングするための簡単でアクセスしやすくコスト効率の高い方法を提供する可能性があります。
要約(オリジナル)
We present an efficient and accessible PD screening method by leveraging AI-driven models enabled by the largest video dataset of facial expressions from 1,059 unique participants. This dataset includes 256 individuals with PD, 165 clinically diagnosed, and 91 self-reported. Participants used webcams to record themselves mimicking three facial expressions (smile, disgust, and surprise) from diverse sources encompassing their homes across multiple countries, a US clinic, and a PD wellness center in the US. Facial landmarks are automatically tracked from the recordings to extract features related to hypomimia, a prominent PD symptom characterized by reduced facial expressions. Machine learning algorithms are trained on these features to distinguish between individuals with and without PD. The model was tested for generalizability on external (unseen during training) test videos collected from a US clinic and Bangladesh. An ensemble of machine learning models trained on smile videos achieved an accuracy of 87.9+-0.1% (95% Confidence Interval) with an AUROC of 89.3+-0.3% as evaluated on held-out data (using k-fold cross-validation). In external test settings, the ensemble model achieved 79.8+-0.6% accuracy with 81.9+-0.3% AUROC on the clinical test set and 84.9+-0.4% accuracy with 81.2+-0.6% AUROC on participants from Bangladesh. In every setting, the model was free from detectable bias across sex and ethnic subgroups, except in the cohorts from Bangladesh, where the model performed significantly better for female participants than males. Smiling videos can effectively differentiate between individuals with and without PD, offering a potentially easy, accessible, and cost-efficient way to screen for PD, especially when a clinical diagnosis is difficult to access.
arxiv情報
著者 | Tariq Adnan,Md Saiful Islam,Wasifur Rahman,Sangwu Lee,Sutapa Dey Tithi,Kazi Noshin,Imran Sarker,M Saifur Rahman,Ehsan Hoque |
発行日 | 2024-11-18 16:45:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google