Self-Taught Optimizer (STOP): Recursively Self-Improving Code Generation

要約

AI システムの最近の進歩では、言語モデル (LM) への複数の呼び出しを構造化してより良い出力を生成する「足場」プログラムを提供することで問題を解決しています。
スキャフォールディング プログラムは、Python などのプログラミング言語で作成されます。
この作業では、言語モデルを組み込んだスキャフォールディング プログラムを使用して、それ自体を改善します。
LM に数回クエリを実行し、最適なソリューションを返すことによって、与えられたユーティリティ関数に従って入力プログラムを改善するシード「改善器」から始めます。
次に、このシード改良プログラムを実行して、シード改良プログラム自体を改善します。
ダウンストリーム タスクの小さなセット全体で、結果的に改善されたインプルーバーは、シード インプルーバーよりも大幅に優れたパフォーマンスのプログラムを生成します。
言語モデルによって、ビーム探索、遺伝的アルゴリズム、シミュレーテッド アニーリングなどのさまざまな自己改善戦略が提案されています。
言語モデル自体は変更されないため、これは完全な再帰的な自己改善ではありません。
それにもかかわらず、これは、現代の言語モデル (私たちの実験では GPT-4) が、それ自体を呼び出して自身を改善するコードを作成できることを示しています。
私たちは自己改善テクノロジーの開発に関する懸念を考慮し、生成されたコードがサンドボックスをバイパスする頻度を評価します。

要約(オリジナル)

Several recent advances in AI systems solve problems by providing a ‘scaffolding’ program that structures multiple calls to language models (LMs) to generate better outputs. A scaffolding program is written in a programming language such as Python. In this work, we use a language-model-infused scaffolding program to improve itself. We start with a seed ‘improver’ that improves an input program according to a given utility function by querying an LM several times and returning the best solution. We then run this seed improver to improve itself. Across a small set of downstream tasks, the resulting improved improver generates programs with significantly better performance than its seed improver. A variety of self-improvement strategies are proposed by the language model, including beam search, genetic algorithms, and simulated annealing. Since the language models themselves are not altered, this is not full recursive self-improvement. Nonetheless, it demonstrates that a modern language model, GPT-4 in our experiments, is capable of writing code that can call itself to improve itself. We consider concerns around the development of self-improving technologies and evaluate the frequency with which the generated code bypasses a sandbox.

arxiv情報

著者 Eric Zelikman,Eliana Lorch,Lester Mackey,Adam Tauman Kalai
発行日 2024-08-16 17:28:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ML パーマリンク