Opportunities and Risks of LLMs for Scalable Deliberation with Polis

要約

Polis は、マシン インテリジェンスを活用して審議プロセスをスケールアップするプラットフォームです。
このペーパーでは、Polis の取り組みの結果を促進、調整、要約するという課題に対して大規模言語モデル (LLM) を適用することに関連する機会とリスクを検討します。
特に、Anthropic の Claude を使用したパイロット実験により、LLM が実際に人間の知能を拡張して、ポリスの会話をより効率的に実行できることを実証します。
特に、要約機能により、集団的な意味形成の演習において公衆に力を与えるという大きな約束を伴う、まったく新しい方法が可能になることがわかりました。
そして注目すべきことに、LLM コンテキストの制限は、これらの結果の洞察と品質に大きな影響を与えます。
ただし、これらの機会にはリスクが伴います。
これらのリスクの一部、それらを特徴づけて軽減するための原則と手法、LLM を採用する可能性のある他の審議システムや政治システムへの影響について説明します。
最後に、LLM を使用して Polis のようなツールを強化するための、いくつかの未解決の将来の研究の方向性について結論付けます。

要約(オリジナル)

Polis is a platform that leverages machine intelligence to scale up deliberative processes. In this paper, we explore the opportunities and risks associated with applying Large Language Models (LLMs) towards challenges with facilitating, moderating and summarizing the results of Polis engagements. In particular, we demonstrate with pilot experiments using Anthropic’s Claude that LLMs can indeed augment human intelligence to help more efficiently run Polis conversations. In particular, we find that summarization capabilities enable categorically new methods with immense promise to empower the public in collective meaning-making exercises. And notably, LLM context limitations have a significant impact on insight and quality of these results. However, these opportunities come with risks. We discuss some of these risks, as well as principles and techniques for characterizing and mitigating them, and the implications for other deliberative or political systems that may employ LLMs. Finally, we conclude with several open future research directions for augmenting tools like Polis with LLMs.

arxiv情報

著者 Christopher T. Small,Ivan Vendrov,Esin Durmus,Hadjar Homaei,Elizabeth Barry,Julien Cornebise,Ted Suzman,Deep Ganguli,Colin Megill
発行日 2023-06-20 22:52:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.HC, cs.SI パーマリンク