Erase to Enhance: Data-Efficient Machine Unlearning in MRI Reconstruction

要約

機械のアンラーニングは、プライバシー規制への準拠を確保し、有害なバイアスを制限するために、トレーニングされたモデルから不要なデータ サンプルを削除するための有望なパラダイムです。
非学習は、分類システムや推奨システムなどで示されていますが、医療用画像間の変換、特に画像再構成におけるその可能性については、十分に研究されていません。
この論文は、MRI タスクにおいて機械のアンラーニングが可能であり、バイアスの除去にメリットをもたらす可能性があることを示しています。
私たちは、さまざまな臓器のデータセット間にどれだけの共有知識が存在するかを調査するためのプロトコルを設定し、アンラーニングの効果を効果的に定量化できるようにしました。
私たちの研究では、トレーニング データを組み合わせると幻覚が生じ、再構成されたデータの画質が低下する可能性があることが明らかになりました。
私たちは、望ましくないデータ削除の代理例として、幻覚を除去するためにアンラーニングを使用します。
実際、完全な再トレーニングなしでも機械の非学習が可能であることを示しています。
さらに、私たちの観察では、保持データのサブセットのみを使用する場合でも、高いパフォーマンスを維持することが可能であることが示されています。
私たちはコードをパブリックにアクセスできるようにしました。

要約(オリジナル)

Machine unlearning is a promising paradigm for removing unwanted data samples from a trained model, towards ensuring compliance with privacy regulations and limiting harmful biases. Although unlearning has been shown in, e.g., classification and recommendation systems, its potential in medical image-to-image translation, specifically in image recon-struction, has not been thoroughly investigated. This paper shows that machine unlearning is possible in MRI tasks and has the potential to benefit for bias removal. We set up a protocol to study how much shared knowledge exists between datasets of different organs, allowing us to effectively quantify the effect of unlearning. Our study reveals that combining training data can lead to hallucinations and reduced image quality in the reconstructed data. We use unlearning to remove hallucinations as a proxy exemplar of undesired data removal. Indeed, we show that machine unlearning is possible without full retraining. Furthermore, our observations indicate that maintaining high performance is feasible even when using only a subset of retain data. We have made our code publicly accessible.

arxiv情報

著者 Yuyang Xue,Jingshuai Liu,Steven McDonagh,Sotirios A. Tsaftaris
発行日 2024-06-18 13:20:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク