PICLe: Eliciting Diverse Behaviors from Large Language Models with Persona In-Context Learning

要約

大規模言語モデル (LLM) は、多様な性格特性でエンコードされた大規模なテキスト コーパスでトレーニングされます。
これは、LLM から望ましい性格特性を引き出し、その行動の好みを調査するという興味深い目標を引き起こします。
したがって、ターゲットペルソナに合わせて LLM の動作をカスタマイズすることを目的として、ペルソナ引き出しタスクを形式化します。
ベイズ推論に基づいた新しいペルソナ引き出しフレームワークであるペルソナ インコンテキスト学習 (PICLe) を紹介します。
PICLe では、中核として、尤度比に基づく新しい ICL サンプル選択基準を導入しています。これは、特定のターゲット ペルソナを引き出す際にモデルを最適に導くように設計されています。
私たちは、3 つの最新の LLM にわたるベースライン手法との広範な比較を通じて、PICLe の有効性を実証します。
コードは https://github.com/deeplearning-wisc/picle で入手できます。

要約(オリジナル)

Large Language Models (LLMs) are trained on massive text corpora, which are encoded with diverse personality traits. This triggers an interesting goal of eliciting a desired personality trait from the LLM, and probing its behavioral preferences. Accordingly, we formalize the persona elicitation task, aiming to customize LLM behaviors to align with a target persona. We present Persona In-Context Learning (PICLe), a novel persona elicitation framework grounded in Bayesian inference. At the core, PICLe introduces a new ICL example selection criterion based on likelihood ratio, which is designed to optimally guide the model in eliciting a specific target persona. We demonstrate the effectiveness of PICLe through extensive comparisons against baseline methods across three contemporary LLMs. Code is available at https://github.com/deeplearning-wisc/picle.

arxiv情報

著者 Hyeong Kyu Choi,Yixuan Li
発行日 2024-05-14 05:53:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク