Making AI Less ‘Thirsty’: Uncovering and Addressing the Secret Water Footprint of AI Models

要約

タイトル:AIの水の消費量を減らすための取り組み:AIモデルの秘密の水の足跡を明らかにすること

要約:
– AIモデルの成長する炭素足跡、特にGPT-3やGPT-4のような大型モデルは公の批判を受けている。
– しかしながら、同じくらい重要であり、巨大な水の消費量についてはあまり注目されていない。
– 例えば、マイクロソフトの最先端のアメリカデータセンターでGPT-3をトレーニングすると、直接700,000リットルの清浄な淡水が消費される(370台のBMW車または320台のテスラ電気自動車の製造に十分)。
– 訓練がマイクロソフトのアジアのデータセンターで行われた場合、水の消費量は3倍になるため、この情報は秘密にされている。
– 淡水不足は、急速に増加する人口、枯渇する水資源、そして老朽化する水のインフラに直面する課題の1つであるため、これは極めて懸念される。
– グローバルな水の課題に対応するために、AIモデルは社会的責任を担い、自らの水の消費量に対処することで模範を示すことができる。
– 本論文では、AIモデルの細かい水の消費量を推定するための原則的な方法論を提供し、また、AIモデルのランタイム水効率のユニークな時空間的な多様性についても議論する。
– 最後に、真に持続可能なAIを実現するために水の足跡と炭素の足跡を包括的に対処する必要性について強調する。

要約(オリジナル)

The growing carbon footprint of artificial intelligence (AI) models, especially large ones such as GPT-3 and GPT-4, has been undergoing public scrutiny. Unfortunately, however, the equally important and enormous water footprint of AI models has remained under the radar. For example, training GPT-3 in Microsoft’s state-of-the-art U.S. data centers can directly consume 700,000 liters of clean freshwater (enough for producing 370 BMW cars or 320 Tesla electric vehicles) and the water consumption would have been tripled if training were done in Microsoft’s Asian data centers, but such information has been kept as a secret. This is extremely concerning, as freshwater scarcity has become one of the most pressing challenges shared by all of us in the wake of the rapidly growing population, depleting water resources, and aging water infrastructures. To respond to the global water challenges, AI models can, and also should, take social responsibility and lead by example by addressing their own water footprint. In this paper, we provide a principled methodology to estimate fine-grained water footprint of AI models, and also discuss the unique spatial-temporal diversities of AI models’ runtime water efficiency. Finally, we highlight the necessity of holistically addressing water footprint along with carbon footprint to enable truly sustainable AI.

arxiv情報

著者 Pengfei Li,Jianyi Yang,Mohammad A. Islam,Shaolei Ren
発行日 2023-04-06 17:55:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク