HealNet — Self-Supervised Acute Wound Heal-Stage Classification

要約

創傷治癒段階の進行を特定、追跡、および予測することは、適切な診断、効果的な治療、治癒の促進、および痛みの軽減に向けた基本的なタスクです。
伝統的に、医療専門家は傷を観察して現在の治癒状態を判断し、治療を勧めることがあります。
ただし、視覚的な指標のみからそのような診断を行うことができる専門家を調達することは、困難で、時間と費用がかかる可能性があります。
さらに、病変は治癒過程を経るのに数週間かかる場合があり、継続的に監視および診断するためのリソースが必要になります。
このタスクの自動化は難しい場合があります。
創傷の発症から成熟までの進行を追跡するデータセットは小さく、まれであり、コンピュータービジョンを考慮せずに収集されることがよくあります。
これらの課題に取り組むために、(a)創傷の時間的ダイナミクスの埋め込みの学習、(b)自動ステージ検出のためのクラスタリング、および(c)微調整された分類で構成される自己監視学習スキームを導入します。
提案された自己監視型の柔軟な学習フレームワークは、生物学的に触発され、人間によるラベル付けがゼロの小さなデータセットでトレーニングされています。
HealNetフレームワークは、高いプレテキストとダウンストリームの分類精度を実現しました。
差し出されたテストデータで評価した場合、HealNetは97.7%のプレテキスト精度と90.62%のヒールステージ分類精度を達成しました。

要約(オリジナル)

Identifying, tracking, and predicting wound heal-stage progression is a fundamental task towards proper diagnosis, effective treatment, facilitating healing, and reducing pain. Traditionally, a medical expert might observe a wound to determine the current healing state and recommend treatment. However, sourcing experts who can produce such a diagnosis solely from visual indicators can be difficult, time-consuming and expensive. In addition, lesions may take several weeks to undergo the healing process, demanding resources to monitor and diagnose continually. Automating this task can be challenging; datasets that follow wound progression from onset to maturation are small, rare, and often collected without computer vision in mind. To tackle these challenges, we introduce a self-supervised learning scheme composed of (a) learning embeddings of wound’s temporal dynamics, (b) clustering for automatic stage discovery, and (c) fine-tuned classification. The proposed self-supervised and flexible learning framework is biologically inspired and trained on a small dataset with zero human labeling. The HealNet framework achieved high pre-text and downstream classification accuracy; when evaluated on held-out test data, HealNet achieved 97.7% pre-text accuracy and 90.62% heal-stage classification accuracy.

arxiv情報

著者 Héctor Carrión,Mohammad Jafari,Hsin-Ya Yang,Roslyn Rivkah Isseroff,Marco Rolandi,Marcella Gomez,Narges Norouzi
発行日 2022-06-23 13:23:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク