要約
オフライン設定の最適化は、大規模言語モデル (LLM) 出力の品質を強化および制御するための重要な方法です。
通常、好みの最適化は、手動で作成された凸損失関数を使用したオフラインの教師あり学習タスクとしてアプローチされます。
これらの方法は理論的な洞察に基づいていますが、本質的に人間の創造性によって制約されるため、考えられる損失関数の大きな探索空間はまだ調査されていません。
私たちは、LLM 主導の客観的発見を実行して、(専門家の) 人間の介入なしで新しい最先端のプリファレンス最適化アルゴリズムを自動的に発見することで、この問題に対処します。
具体的には、以前に評価したパフォーマンスメトリクスに基づいて、新しいプリファレンス最適化損失関数を提案および実装するよう、LLM に繰り返し促します。
このプロセスは、これまで知られていなかったパフォーマンスの高い設定最適化アルゴリズムの発見につながります。
これらの中で最高のパフォーマンスを発揮するものを Discovered Preference Optimization (DiscoPOP) と呼びます。これは、ロジスティック損失と指数損失を適応的にブレンドする新しいアルゴリズムです。
実験では、DiscoPOP の最先端のパフォーマンスと、保留されたタスクへの転送の成功を実証します。
要約(オリジナル)
Offline preference optimization is a key method for enhancing and controlling the quality of Large Language Model (LLM) outputs. Typically, preference optimization is approached as an offline supervised learning task using manually-crafted convex loss functions. While these methods are based on theoretical insights, they are inherently constrained by human creativity, so the large search space of possible loss functions remains under explored. We address this by performing LLM-driven objective discovery to automatically discover new state-of-the-art preference optimization algorithms without (expert) human intervention. Specifically, we iteratively prompt an LLM to propose and implement new preference optimization loss functions based on previously-evaluated performance metrics. This process leads to the discovery of previously-unknown and performant preference optimization algorithms. The best performing of these we call Discovered Preference Optimization (DiscoPOP), a novel algorithm that adaptively blends logistic and exponential losses. Experiments demonstrate the state-of-the-art performance of DiscoPOP and its successful transfer to held-out tasks.
arxiv情報
著者 | Chris Lu,Samuel Holt,Claudio Fanconi,Alex J. Chan,Jakob Foerster,Mihaela van der Schaar,Robert Tjarko Lange |
発行日 | 2024-06-12 16:58:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google