要約
LLM の機能の向上に伴い、最近の研究は、LLM によって誰の意見が代表されているかを理解することと、整合した意見の分布を効果的に抽出する方法に焦点を当てています。
私たちは、分布を取得するための 3 つの簡単な方法の実証分析を実施し、さまざまな指標にわたって結果を評価しました。
私たちの調査結果は、単純なパラメーター調整によるサンプリングと対数確率のアプローチが、直接的なプロンプトと比較して、主観的なタスクにおいてより適切に調整された出力を返すことができることを示唆しています。
しかし、モデルが人間の意見を反映していると仮定することには限界がある可能性があり、人間の主観がモデルの不確実性にどのように影響するかについてさらなる研究の必要性が浮き彫りになっています。
要約(オリジナル)
With the increasing capabilities of LLMs, recent studies focus on understanding whose opinions are represented by them and how to effectively extract aligned opinion distributions. We conducted an empirical analysis of three straightforward methods for obtaining distributions and evaluated the results across a variety of metrics. Our findings suggest that sampling and log-probability approaches with simple parameter adjustments can return better aligned outputs in subjective tasks compared to direct prompting. Yet, assuming models reflect human opinions may be limiting, highlighting the need for further research on how human subjectivity affects model uncertainty.
arxiv情報
著者 | Maja Pavlovic,Massimo Poesio |
発行日 | 2024-11-15 09:50:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google