Understanding and contextualising diffusion models

要約

人工知能の最新の開発には、拡散生成モデルが含まれます。これは、無条件に、場合によってはユーザーが提供するいくつかの入力によって調整された元の画像を生成できる非常に人気のあるツールです。
この作業の範囲外である実装の詳細は別として、画像を生成するために使用されるすべての主要なモデルは、完全に劣化した画像から新しい画像を復元するという共通の理論に実質的に基づいています。
この作業では、その背後にある数学的理論に焦点を当てることによって、つまり、特定の実装や関連する方法を詳細に分析することなく、これがどのように可能になるかを説明します。
この作業の目的は、関心のある読者に、これらすべてが数学的かつ直感的に何を意味するのかを明確にすることです。

要約(オリジナル)

The latest developments in Artificial Intelligence include diffusion generative models, quite popular tools which can produce original images both unconditionally and, in some cases, conditioned by some inputs provided by the user. Apart from implementation details, which are outside the scope of this work, all of the main models used to generate images are substantially based on a common theory which restores a new image from a completely degraded one. In this work we explain how this is possible by focusing on the mathematical theory behind them, i.e. without analyzing in detail the specific implementations and related methods. The aim of this work is to clarify to the interested reader what all this means mathematically and intuitively.

arxiv情報

著者 Stefano Scotta,Alberto Messina
発行日 2023-02-10 11:36:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, I.2 パーマリンク