Deceptive Patterns of Intelligent and Interactive Writing Assistants

要約

大規模言語モデルは、新しいインテリジェントでインタラクティブなライティング アシスタントに不可欠な部分になっています。
多くは、ChatGPT などのチャットボットのような UI を備えて商用提供されており、内部の仕組みに関する情報はほとんど提供されていません。
このため、この新しいタイプの広く普及したシステムは、欺瞞的な設計パターンの潜在的な標的となります。
たとえば、このようなアシスタントは、ある時点までの指導を提供してから、残りの部分を見るために料金を請求することで、隠れたコストを悪用する可能性があります。
別の例として、(表明された意見に影響を与えるためなどに)より長い生成または改訂されたテキスト部分に不要なコンテンツ/編集を忍び込ませる可能性があります。
これらおよび他の例を使用して、いくつかの欺瞞的なパターンを文献から AI ライティング アシスタントの新しいコンテキストに概念的に移します。
私たちの目標は、このようなシステムの UI とインタラクション デザインが人々とその執筆にどのような影響を与えるかについての意識を高め、将来の研究を奨励することです。

要約(オリジナル)

Large Language Models have become an integral part of new intelligent and interactive writing assistants. Many are offered commercially with a chatbot-like UI, such as ChatGPT, and provide little information about their inner workings. This makes this new type of widespread system a potential target for deceptive design patterns. For example, such assistants might exploit hidden costs by providing guidance up until a certain point before asking for a fee to see the rest. As another example, they might sneak unwanted content/edits into longer generated or revised text pieces (e.g. to influence the expressed opinion). With these and other examples, we conceptually transfer several deceptive patterns from the literature to the new context of AI writing assistants. Our goal is to raise awareness and encourage future research into how the UI and interaction design of such systems can impact people and their writing.

arxiv情報

著者 Karim Benharrak,Tim Zindulka,Daniel Buschek
発行日 2024-04-14 23:05:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC パーマリンク