HealNet — Self-Supervised Acute Wound Heal-Stage Classification

要約

創傷治癒段階の進行を特定、追跡、および予測することは、適切な診断、効果的な治療、治癒の促進、および痛みの軽減に向けた基本的なタスクです。
伝統的に、医療専門家は傷を観察して現在の治癒状態を判断し、治療を勧めることがあります。
ただし、視覚的な指標のみからそのような診断を行うことができるソーシングの専門家は、時間と費用がかかる可能性があります。
さらに、病変は治癒過程を経るのに数週間かかる場合があり、継続的に監視および診断するためのリソースが必要になります。
このタスクの自動化は難しい場合があります。
創傷の発症から成熟までの進行を追跡するデータセットは小さく、まれであり、コンピュータービジョンを考慮せずに収集されることがよくあります。
これらの課題に取り組むために、(a)創傷の時間的ダイナミクスの埋め込みの学習、(b)自動ステージ検出のためのクラスタリング、および(c)微調整された分類で構成される自己監視学習スキームを導入します。
提案された自己監視型の柔軟な学習フレームワークは、生物学的に触発され、人間によるラベル付けがゼロの小さなデータセットでトレーニングされています。
HealNetフレームワークは、高いプレテキストとダウンストリームの分類精度を実現しました。
差し出されたテストデータで評価した場合、HealNetは94.2%のプレテキスト精度と93.8%のヒールステージ分類精度を達成しました。

要約(オリジナル)

Identifying, tracking, and predicting wound heal-stage progression is a fundamental task towards proper diagnosis, effective treatment, facilitating healing, and reducing pain. Traditionally, a medical expert might observe a wound to determine the current healing state and recommend treatment. However, sourcing experts who can produce such a diagnosis solely from visual indicators can be time-consuming and expensive. In addition, lesions may take several weeks to undergo the healing process, demanding resources to monitor and diagnose continually. Automating this task can be challenging; datasets that follow wound progression from onset to maturation are small, rare, and often collected without computer vision in mind. To tackle these challenges, we introduce a self-supervised learning scheme composed of (a) learning embeddings of wound’s temporal dynamics, (b) clustering for automatic stage discovery, and (c) fine-tuned classification. The proposed self-supervised and flexible learning framework is biologically inspired and trained on a small dataset with zero human labeling. The HealNet framework achieved high pre-text and downstream classification accuracy; when evaluated on held-out test data, HealNet achieved 94.2% pre-text accuracy and 93.8% heal-stage classification accuracy.

arxiv情報

著者 Héctor Carrión,Mohammad Jafari,Hsin-Ya Yang,Roslyn Rivkah,Marco Rolandi,Marcella Gomez,Narges Norouzi
発行日 2022-06-21 17:09:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク