要約
ChatGPT のような大規模言語モデル LLM は、記録的な速さで 1 億ユーザーの壁に達しており、私たちの生活のあらゆる領域にますます入り込んでおり、それらの人工知能モデルと人間との間の多様な相互作用につながる可能性があります。
多くの研究がガバナンスと規制について一次原理から演繹的に議論してきたが、特に潜在的な問題を引き起こす可能性のある非協力的で競争的な状況に関して、人間とLLMの間の対話の観察に基づいた帰納的でデータ駆動型のレンズを提供している研究はほとんどない。
人々に対する深刻な脅威。
この研究では、LLM との価格交渉にあらゆる年齢層の 40 人以上の個人を参加させるユーザー調査を実施しました。
私たちは人々が LLM とどのように対話するかを調査し、交渉の結果と戦略の違いを調査します。
さらに、LLM の推論能力に関する欠点と、その結果として、LLM を操作してその指示に反したり合理性を超えた合意を作らせようとするプロンプトハッキングの影響を受けやすいことを強調します。
また、人間が達成できる交渉価格は広範囲にわたることも示しており、これは LLM と効果的にやり取りする際のリテラシーのギャップを示しています。
要約(オリジナル)
Large language models LLMs like ChatGPT have reached the 100 Mio user barrier in record time and might increasingly enter all areas of our life leading to a diverse set of interactions between those Artificial Intelligence models and humans. While many studies have discussed governance and regulations deductively from first-order principles, few studies provide an inductive, data-driven lens based on observing dialogues between humans and LLMs especially when it comes to non-collaborative, competitive situations that have the potential to pose a serious threat to people. In this work, we conduct a user study engaging over 40 individuals across all age groups in price negotiations with an LLM. We explore how people interact with an LLM, investigating differences in negotiation outcomes and strategies. Furthermore, we highlight shortcomings of LLMs with respect to their reasoning capabilities and, in turn, susceptiveness to prompt hacking, which intends to manipulate the LLM to make agreements that are against its instructions or beyond any rationality. We also show that the negotiated prices humans manage to achieve span a broad range, which points to a literacy gap in effectively interacting with LLMs.
arxiv情報
著者 | Johannes Schneider,Steffi Haag,Leona Chandra Kruse |
発行日 | 2024-11-22 16:34:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google