要約
背景と目的: 医療情報を機関を超えて流通させ、高精度なコンピュータ支援診断システムを構築するには、医療データの共有が必要です。
ただし、大規模な医療データセット、保存された深層畳み込みニューラル ネットワーク (DCNN) モデルの大量のメモリ、および患者のプライバシー保護は、非効率的な医療データ共有につながる可能性がある問題です。
したがって、この研究では、医療データ共有のための新しいソフトラベル データセット蒸留法を提案します。
方法: 提案された方法は、医療画像データの有効な情報を抽出し、匿名の医療データ共有のために、データ分布が異なる複数の圧縮画像を生成します。
さらに、この方法では、DCNN モデルの重要な重みを抽出して、訓練されたモデルを保存するために必要なメモリを削減し、効率的な医療データ共有を実現できます。
結果: 提案された方法は、数万の画像をいくつかのソフト ラベル画像に圧縮し、トレーニング済みモデルのサイズを元のサイズの数百分の 1 に縮小することができます。
蒸留後に得られた圧縮画像は、視覚的に匿名化されています。
したがって、患者の個人情報は含まれません。
さらに、少ない圧縮画像で高い検出性能を実現できます。
結論: 実験結果は、提案された方法が医療データ共有の効率とセキュリティを改善できることを示しています。
要約(オリジナル)
Background and objective: Sharing of medical data is required to enable the cross-agency flow of healthcare information and construct high-accuracy computer-aided diagnosis systems. However, the large sizes of medical datasets, the massive amount of memory of saved deep convolutional neural network (DCNN) models, and patients’ privacy protection are problems that can lead to inefficient medical data sharing. Therefore, this study proposes a novel soft-label dataset distillation method for medical data sharing. Methods: The proposed method distills valid information of medical image data and generates several compressed images with different data distributions for anonymous medical data sharing. Furthermore, our method can extract essential weights of DCNN models to reduce the memory required to save trained models for efficient medical data sharing. Results: The proposed method can compress tens of thousands of images into several soft-label images and reduce the size of a trained model to a few hundredths of its original size. The compressed images obtained after distillation have been visually anonymized; therefore, they do not contain the private information of the patients. Furthermore, we can realize high-detection performance with a small number of compressed images. Conclusions: The experimental results show that the proposed method can improve the efficiency and security of medical data sharing.
arxiv情報
著者 | Guang Li,Ren Togo,Takahiro Ogawa,Miki Haseyama |
発行日 | 2022-11-01 07:06:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google