Human-Feedback Efficient Reinforcement Learning for Online Diffusion Model Finetuning

要約

安定した拡散(SD)微調整による制御可能な生成は、忠実度、安全性、および人間の指導との調整を改善することを目的としています。
通常、人間のフィードバック方法からの既存の強化学習は、通常、事前に定義されたヒューリスティックな報酬機能または大規模なデータセットに基づいて構築された前提条件の報酬モデルに依存しており、そのようなデータの収集が費用または困難なシナリオに適用可能性を制限します。
人間のフィードバックを効果的かつ効率的に利用するために、モデル学習中に収集されたオンラインの人間のフィードバックを活用するフレームワーク、ヒーローを開発します。
具体的には、Heroは2つの重要なメカニズムを特徴としています。(1)フィードバックに沿った表現学習、人間のフィードバックをキャプチャし、微調整のための有益な学習信号を提供するオンライントレーニング方法、および(2)フィードバックガイド付き画像生成。
Heroは、最良の既存の方法と比較して、身体部分の異常補正のオンラインフィードバックにより4倍効率的であることを実証します。
さらに、実験では、ヒーローがわずか0.5kのオンラインフィードバックでNSFWコンテンツをカウント、カウント、パーソナライズ、削減などのタスクを効果的に処理できることが示されています。

要約(オリジナル)

Controllable generation through Stable Diffusion (SD) fine-tuning aims to improve fidelity, safety, and alignment with human guidance. Existing reinforcement learning from human feedback methods usually rely on predefined heuristic reward functions or pretrained reward models built on large-scale datasets, limiting their applicability to scenarios where collecting such data is costly or difficult. To effectively and efficiently utilize human feedback, we develop a framework, HERO, which leverages online human feedback collected on the fly during model learning. Specifically, HERO features two key mechanisms: (1) Feedback-Aligned Representation Learning, an online training method that captures human feedback and provides informative learning signals for fine-tuning, and (2) Feedback-Guided Image Generation, which involves generating images from SD’s refined initialization samples, enabling faster convergence towards the evaluator’s intent. We demonstrate that HERO is 4x more efficient in online feedback for body part anomaly correction compared to the best existing method. Additionally, experiments show that HERO can effectively handle tasks like reasoning, counting, personalization, and reducing NSFW content with only 0.5K online feedback.

arxiv情報

著者 Ayano Hiranaka,Shang-Fu Chen,Chieh-Hsin Lai,Dongjun Kim,Naoki Murata,Takashi Shibuya,Wei-Hsiang Liao,Shao-Hua Sun,Yuki Mitsufuji
発行日 2025-03-06 17:11:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG パーマリンク