要約
深い生成モデリングの分野は、ここ数年で急速に成長しました。
膨大な量のトレーニングデータが利用可能になり、スケーラブルな監視されていない学習パラダイムの進歩と組み合わされているため、最近の大規模生成モデルは、高解像度の画像とテキスト、およびビデオや分子などの構造化されたデータを合成する際に大きな約束を示しています。
ただし、現在の大規模な生成AIモデルは、ドメイン全体で広範囲にわたる採用を妨げるいくつかの基本的な欠点を示すと主張しています。
この作業では、これらの問題を特定し、能力、汎用性、信頼性をさらに高めるために対処すべき現代の生成AIパラダイムにおける重要な未解決の課題を強調することです。
これらの課題を特定することにより、研究者に実りある研究の方向性を調査するための洞察を提供し、より堅牢でアクセス可能な生成AIソリューションの開発を促進することを目指しています。
要約(オリジナル)
The field of deep generative modeling has grown rapidly in the last few years. With the availability of massive amounts of training data coupled with advances in scalable unsupervised learning paradigms, recent large-scale generative models show tremendous promise in synthesizing high-resolution images and text, as well as structured data such as videos and molecules. However, we argue that current large-scale generative AI models exhibit several fundamental shortcomings that hinder their widespread adoption across domains. In this work, our objective is to identify these issues and highlight key unresolved challenges in modern generative AI paradigms that should be addressed to further enhance their capabilities, versatility, and reliability. By identifying these challenges, we aim to provide researchers with insights for exploring fruitful research directions, thus fostering the development of more robust and accessible generative AI solutions.
arxiv情報
著者 | Laura Manduchi,Kushagra Pandey,Clara Meister,Robert Bamler,Ryan Cotterell,Sina Däubener,Sophie Fellenz,Asja Fischer,Thomas Gärtner,Matthias Kirchler,Marius Kloft,Yingzhen Li,Christoph Lippert,Gerard de Melo,Eric Nalisnick,Björn Ommer,Rajesh Ranganath,Maja Rudolph,Karen Ullrich,Guy Van den Broeck,Julia E Vogt,Yixin Wang,Florian Wenzel,Frank Wood,Stephan Mandt,Vincent Fortuin |
発行日 | 2025-03-06 15:29:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google