要約
多様性が必要な場合、大規模な言語モデルの出力はどの程度多様ですか?
私たちは、複数の可能な答えがある質問に対するさまざまなモデルの応答の多様性を、人間の応答と比較して調べます。
私たちの調査結果は、応答がはるかにロングテールを示す人間と比較して、モデルの出力が非常に集中しており、狭い主流の「世界観」を反映していることを示唆しています。
モデルの出力の多様性を高める 3 つの方法を検討します。1) 温度サンプリングによって生成のランダム性を高める。
2) モデルに多様な視点から回答を促す。
3) 複数のモデルからの出力を集約します。
これらの対策を組み合わせると、モデルの出力の多様性が大幅に増加し、人間の出力の多様性に達します。
私たちは、民主的な社会構造の不可欠な構成要素である文化的多様性の維持を望む AI 政策に対する、これらの調査結果の影響について議論します。
要約(オリジナル)
How diverse are the outputs of large language models when diversity is desired? We examine the diversity of responses of various models to questions with multiple possible answers, comparing them with human responses. Our findings suggest that models’ outputs are highly concentrated, reflecting a narrow, mainstream ‘worldview’, in comparison to humans, whose responses exhibit a much longer-tail. We examine three ways to increase models’ output diversity: 1) increasing generation randomness via temperature sampling; 2) prompting models to answer from diverse perspectives; 3) aggregating outputs from several models. A combination of these measures significantly increases models’ output diversity, reaching that of humans. We discuss implications of these findings for AI policy that wishes to preserve cultural diversity, an essential building block of a democratic social fabric.
arxiv情報
著者 | Michal Shur-Ofry,Bar Horowitz-Amsalem,Adir Rahamim,Yonatan Belinkov |
発行日 | 2024-11-05 10:52:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google