Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback

要約

ヒューマン フィードバックからの強化学習 (RLHF) は、人間の目標に合わせて AI システムをトレーニングするための手法です。
RLHF は、最先端の大規模言語モデル (LLM) を微調整するために使用される中心的な手法として浮上しました。
この人気にもかかわらず、その欠陥を体系化した公的研究は比較的少ないです。
この論文では、(1) RLHF および関連手法の未解決の問題と基本的な限界を調査します。
(2) 実際に RLHF を理解し、改善し、補完するための技術の概要。
(3) RLHF システムの社会的監視を改善するための監査および開示基準を提案する。
私たちの研究は、RLHF の限界を強調し、より安全な AI システムの開発に対する多面的なアプローチの重要性を強調しています。

要約(オリジナル)

Reinforcement learning from human feedback (RLHF) is a technique for training AI systems to align with human goals. RLHF has emerged as the central method used to finetune state-of-the-art large language models (LLMs). Despite this popularity, there has been relatively little public work systematizing its flaws. In this paper, we (1) survey open problems and fundamental limitations of RLHF and related methods; (2) overview techniques to understand, improve, and complement RLHF in practice; and (3) propose auditing and disclosure standards to improve societal oversight of RLHF systems. Our work emphasizes the limitations of RLHF and highlights the importance of a multi-faceted approach to the development of safer AI systems.

arxiv情報

著者 Stephen Casper,Xander Davies,Claudia Shi,Thomas Krendl Gilbert,Jérémy Scheurer,Javier Rando,Rachel Freedman,Tomasz Korbak,David Lindner,Pedro Freire,Tony Wang,Samuel Marks,Charbel-Raphaël Segerie,Micah Carroll,Andi Peng,Phillip Christoffersen,Mehul Damani,Stewart Slocum,Usman Anwar,Anand Siththaranjan,Max Nadeau,Eric J. Michaud,Jacob Pfau,Dmitrii Krasheninnikov,Xin Chen,Lauro Langosco,Peter Hase,Erdem Bıyık,Anca Dragan,David Krueger,Dorsa Sadigh,Dylan Hadfield-Menell
発行日 2023-07-27 22:29:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク