要約
スマートフォン データからの病気の検出は、モバイル ヘルス (m-health) システムにおける未解決の研究課題を表しています。
新型コロナウイルス感染症とその呼吸器症状は、この分野における重要なケーススタディであり、その早期発見はパンデミックの状況に対抗するための真の手段となる可能性があります。
このソリューションの有効性は主に、収集されたデータに適用される AI アルゴリズムのパフォーマンスと、ユーザーのモバイル デバイスに直接実装できるかどうかに依存します。
これらの問題と利用可能なデータの量が限られていることを考慮して、この論文では、3 つの異なる深層学習モデルの実験的評価を、手作りの特徴とも比較し、また、考慮されたシナリオにおける転移学習の 2 つの主なアプローチの実験的評価を示します。
抽出と微調整。
具体的には、4 つの異なるデータセット (合計 13,447 サンプル) でのユーザー独立実験を通じて評価された VGGish、YAMNET、および L\textsuperscript{3}-Net (12 の異なる構成を含む) を検討しました。
結果は、すべての実験設定における L\textsuperscript{3}-Net の利点を明確に示しています。特徴抽出器としての精度と再現率の AUC の点で他のソリューションを 12.3\% 上回り、モデルが良好な場合は 10\% 上回ります。
-調整しました。
さらに、事前トレーニングされたモデルの完全に接続された層のみを微調整すると、一般的にパフォーマンスが低下し、特徴抽出に関して平均 6.6% 低下することに注意します。
%さらなる調査の必要性を強調しています。
最後に、商用モバイル デバイスでのアプリケーションの可能性について、さまざまなモデルのメモリ フットプリントを評価します。
要約(オリジナル)
Disease detection from smartphone data represents an open research challenge in mobile health (m-health) systems. COVID-19 and its respiratory symptoms are an important case study in this area and their early detection is a potential real instrument to counteract the pandemic situation. The efficacy of this solution mainly depends on the performances of AI algorithms applied to the collected data and their possible implementation directly on the users’ mobile devices. Considering these issues, and the limited amount of available data, in this paper we present the experimental evaluation of 3 different deep learning models, compared also with hand-crafted features, and of two main approaches of transfer learning in the considered scenario: both feature extraction and fine-tuning. Specifically, we considered VGGish, YAMNET, and L\textsuperscript{3}-Net (including 12 different configurations) evaluated through user-independent experiments on 4 different datasets (13,447 samples in total). Results clearly show the advantages of L\textsuperscript{3}-Net in all the experimental settings as it overcomes the other solutions by 12.3\% in terms of Precision-Recall AUC as features extractor, and by 10\% when the model is fine-tuned. Moreover, we note that to fine-tune only the fully-connected layers of the pre-trained models generally leads to worse performances, with an average drop of 6.6\% with respect to feature extraction. %highlighting the need for further investigations. Finally, we evaluate the memory footprints of the different models for their possible applications on commercial mobile devices.
arxiv情報
| 著者 | Mattia Giovanni Campana,Franca Delmastro,Elena Pagani |
| 発行日 | 2023-07-06 13:19:27+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google