要約
コンピューティング要件の増大によるディープ ラーニング (DL) のエネルギー消費と二酸化炭素排出量の増加は、懸念の原因となっています。
この作業では、高空間解像度のボリューム画像が処理される医用画像解析 (MIA) 用の DL モデルの開発の二酸化炭素排出量に焦点を当てます。
この研究では、DL の二酸化炭素排出量を定量化するために、文献から 4 つのツールの機能を提示して比較します。
これらのツールの 1 つを使用して、医療画像セグメンテーション パイプラインの二酸化炭素排出量を推定します。
医療画像セグメンテーション パイプラインのプロキシとして nnU-net を選択し、3 つの一般的なデータセットで実験します。
私たちの仕事で、MIA によって発生するエネルギー コストの増加についてお知らせしたいと考えています。
モデルの選択とトレーニング プロセスをより効率的にするために、環境への影響を削減するための簡単な戦略について説明します。
要約(オリジナル)
The increasing energy consumption and carbon footprint of deep learning (DL) due to growing compute requirements has become a cause of concern. In this work, we focus on the carbon footprint of developing DL models for medical image analysis (MIA), where volumetric images of high spatial resolution are handled. In this study, we present and compare the features of four tools from literature to quantify the carbon footprint of DL. Using one of these tools we estimate the carbon footprint of medical image segmentation pipelines. We choose nnU-net as the proxy for a medical image segmentation pipeline and experiment on three common datasets. With our work we hope to inform on the increasing energy costs incurred by MIA. We discuss simple strategies to cut-down the environmental impact that can make model selection and training processes more efficient.
arxiv情報
著者 | Raghavendra Selvan,Nikhil Bhagwat,Lasse F. Wolff Anthony,Benjamin Kanding,Erik B. Dam |
発行日 | 2022-09-15 15:19:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google