要約
グラフィカルユーザーインターフェイス(または単にUI)は、ユーザーとそのデバイス間の相互作用の主要な平均です。
この論文では、アプリデザイナーの創造性をトリガーし、より優れた多様なUIデザインを作成するための3つの補完的な人工知能(AI)アプローチについて説明します。
まず、デザイナーは大規模な言語モデル(LLM)にUIを直接生成および調整するように促すことができます。
第二に、ビジョン言語モデル(VLM)により、設計者は大規模なスクリーンショットデータセットを効果的に検索できます。
アプリストアで公開されているアプリから。
第三に、拡散モデル(DM)をトレーニングして、UIをインスピレーションのある画像として特異的に生成することができます。
AIにインスパイアされた設計プロセスを提示し、アプローチの意味と制限について説明します。
要約(オリジナル)
Graphical User Interface (or simply UI) is a primary mean of interaction between users and their devices. In this paper, we discuss three complementary Artificial Intelligence (AI) approaches for triggering the creativity of app designers and inspiring them create better and more diverse UI designs. First, designers can prompt a Large Language Model (LLM) to directly generate and adjust UIs. Second, a Vision-Language Model (VLM) enables designers to effectively search a large screenshot dataset, e.g. from apps published in app stores. Third, a Diffusion Model (DM) can be trained to specifically generate UIs as inspirational images. We present an AI-inspired design process and discuss the implications and limitations of the approaches.
arxiv情報
著者 | Jialiang Wei,Anne-Lise Courbis,Thomas Lambolais,Gérard Dray,Walid Maalej |
発行日 | 2025-01-28 16:42:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google