ImageReward: Learning and Evaluating Human Preferences for Text-to-Image Generation

要約

タイトル:テキストから画像生成のための人間の好みの学習と評価

要約:

– 人間の価値観や好みに合わせて、生成モデルの問題を解決するために、ImageRewardという汎用的なテキストから画像への人間の好みの報酬モデルを紹介している。
– ImageRewardは、評価とランキングの両方のコンポーネントをカバーし、アノテーションパイプラインに基づいてトレーニングされ、現在137kのエキスパート比較のデータセットを収集している。
– 既存の評価方法(例えば、CLIP)よりも38.6%優れているため、ImageRewardは、テキストから画像合成を評価および改善するための有望な自動メトリックである。
– 報酬モデルは、\texttt{image-reward}パッケージを通じて公開されている(\url{https://github.com/THUDM/ImageReward})。

要約(オリジナル)

We present ImageReward — the first general-purpose text-to-image human preference reward model — to address various prevalent issues in generative models and align them with human values and preferences. Its training is based on our systematic annotation pipeline that covers both the rating and ranking components, collecting a dataset of 137k expert comparisons to date. In human evaluation, ImageReward outperforms existing scoring methods (e.g., CLIP by 38.6\%), making it a promising automatic metric for evaluating and improving text-to-image synthesis. The reward model is publicly available via the \texttt{image-reward} package at \url{https://github.com/THUDM/ImageReward}.

arxiv情報

著者 Jiazheng Xu,Xiao Liu,Yuchen Wu,Yuxuan Tong,Qinkai Li,Ming Ding,Jie Tang,Yuxiao Dong
発行日 2023-04-13 00:28:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク