Emotion-Conditioned Text Generation through Automatic Prompt Optimization

要約

条件付き自然言語生成方法では、多くの場合、高価な微調整が必​​要になるか、大規模な言語モデルを最初からトレーニングする必要があります。
どちらも、相当量のデータと計算リソースがなければ、良い結果が得られる可能性は低いです。
大規模な言語モデルのパラメータを変更せずに迅速に学習することは、有望な代替手段となります。
これはコスト効率の高いアプローチでありながら、競争力のある結果を達成します。
この手順は現在、ゼロショットおよび少数ショットのテキスト分類と構造化予測に関して確立されていますが、条件付きテキスト生成ではあまり注目されていません。
我々は、命令で微調整されたモデルを使用した、感情条件付きテキスト生成のための最初の自動プロンプト最適化アプローチを紹介します。
私たちの方法では、トークンを追加、削除、または置換することでプロンプトを変更する反復的な最適化手順を使用します。
目的関数として必要なのは、生成されたテキスト内の条件変数の実現を測定するテキスト分類子だけです。
イベントレポートに焦点を当てて感情条件付きテキスト生成の方法を評価し、それを最適化手順のシードとしても機能する手動で設計されたプロンプトと比較します。
手動で設計されたシード プロンプトのマクロ平均 F1 が 0.22 のみであるのとは対照的に、最適化されたプロンプトは、感情条件を満たすマクロ平均 F1 が 0.75 に達します。

要約(オリジナル)

Conditional natural language generation methods often require either expensive fine-tuning or training a large language model from scratch. Both are unlikely to lead to good results without a substantial amount of data and computational resources. Prompt learning without changing the parameters of a large language model presents a promising alternative. It is a cost-effective approach, while still achieving competitive results. While this procedure is now established for zero- and few-shot text classification and structured prediction, it has received limited attention in conditional text generation. We present the first automatic prompt optimization approach for emotion-conditioned text generation with instruction-fine-tuned models. Our method uses an iterative optimization procedure that changes the prompt by adding, removing, or replacing tokens. As objective function, we only require a text classifier that measures the realization of the conditional variable in the generated text. We evaluate the method on emotion-conditioned text generation with a focus on event reports and compare it to manually designed prompts that also act as the seed for the optimization procedure. The optimized prompts achieve 0.75 macro-average F1 to fulfill the emotion condition in contrast to manually designed seed prompts with only 0.22 macro-average F1.

arxiv情報

著者 Yarik Menchaca Resendiz,Roman Klinger
発行日 2023-08-09 10:42:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク