要約
制御可能なテキスト生成に関するほとんどの研究は、ベース言語モデルのステアリングに焦点を当ててきましたが、新たな命令チューニングとプロンプトのパラダイムは、制御可能性への代替アプローチを提供します。
私たちは、17 の異なる制御可能な生成タスクのテストベッドである ConGenBench をコンパイルしてリリースし、そのサブセットを使用して、命令調整言語モデル上の 9 つの異なるベースラインとメソッドのパフォーマンスをベンチマークします。
驚いたことに、プロンプトベースのアプローチは、ほとんどのデータセットやタスクで制御可能なテキスト生成方法よりも優れたパフォーマンスを発揮することがわかり、特に命令調整言語モデルを使用した制御可能なテキスト生成に関する研究の必要性が強調されています。
プロンプトベースのアプローチは、ほとんどの文体的なタスクでは人間のパフォーマンスに匹敵しますが、構造的なタスクでは遅れをとり、より多様な制約とより困難な文体的なタスクを研究する必要性が前景化します。
このような研究を促進するために、タスク データセットと、制約データセットを自動的に生成するインコンテキスト機能を備えた大規模言語モデルのみを使用するアルゴリズムを提供します。
この方法では、事前にキュレーションされた制約データセットへのフィールドの依存性が排除されるため、将来的に研究できる制約の範囲が大幅に拡大します。
要約(オリジナル)
While most research on controllable text generation has focused on steering base Language Models, the emerging instruction-tuning and prompting paradigm offers an alternate approach to controllability. We compile and release ConGenBench, a testbed of 17 different controllable generation tasks, using a subset of it to benchmark the performance of 9 different baselines and methods on Instruction-tuned Language Models. To our surprise, we find that prompting-based approaches outperform controllable text generation methods on most datasets and tasks, highlighting a need for research on controllable text generation with Instruction-tuned Language Models in specific. Prompt-based approaches match human performance on most stylistic tasks while lagging on structural tasks, foregrounding a need to study more varied constraints and more challenging stylistic tasks. To facilitate such research, we provide an algorithm that uses only a task dataset and a Large Language Model with in-context capabilities to automatically generate a constraint dataset. This method eliminates the fields dependence on pre-curated constraint datasets, hence vastly expanding the range of constraints that can be studied in the future.
arxiv情報
著者 | Dhananjay Ashok,Barnabas Poczos |
発行日 | 2024-05-02 17:24:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google