Moonshine: Distilling Game Content Generators into Steerable Generative Models

要約

Procedural Content Generation via Machine Learning (PCGML) により、ゲーム コンテンツの作成が強化されましたが、制御性と限られたトレーニング データにおける課題は依然として残ります。
この研究では、建設的な PCG アルゴリズムを制御可能な PCGML モデルに抽出することで、これらの問題に対処します。
まず、建設的なアルゴリズムを使用して大量のコンテンツを生成し、大規模言語モデル (LLM) を使用してラベルを付けます。
これらの合成ラベルを使用して、コンテンツ固有の生成用に 2 つの PCGML モデル (拡散モデルと 5 ドル モデル) を調整します。
このニューラル ネットワークの蒸留プロセスにより、プレーン テキストによる制御性が導入されながら、生成が元のアルゴリズムと確実に一致するようになります。
このテキスト条件付き PCGML を Text-to-game-Map (T2M) タスクとして定義し、一般的なテキストから画像へのマルチモーダル タスクの代替手段を提供します。
抽出したモデルをベースラインの構築的アルゴリズムと比較します。
私たちの生成の多様性、精度、品質の分析は、制御可能なテキスト条件付き PCGML モデルに構築的な手法を抽出することの有効性を実証しています。

要約(オリジナル)

Procedural Content Generation via Machine Learning (PCGML) has enhanced game content creation, yet challenges in controllability and limited training data persist. This study addresses these issues by distilling a constructive PCG algorithm into a controllable PCGML model. We first generate a large amount of content with a constructive algorithm and label it using a Large Language Model (LLM). We use these synthetic labels to condition two PCGML models for content-specific generation, a diffusion model and the five-dollar model. This neural network distillation process ensures that the generation aligns with the original algorithm while introducing controllability through plain text. We define this text-conditioned PCGML as a Text-to-game-Map (T2M) task, offering an alternative to prevalent text-to-image multi-modal tasks. We compare our distilled models with the baseline constructive algorithm. Our analysis of the variety, accuracy, and quality of our generation demonstrates the efficacy of distilling constructive methods into controllable text-conditioned PCGML models.

arxiv情報

著者 Yuhe Nie,Michael Middleton,Tim Merino,Nidhushan Kanagaraja,Ashutosh Kumar,Zhan Zhuang,Julian Togelius
発行日 2025-01-17 16:44:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2.1 パーマリンク