Contextual Confidence and Generative AI

要約

生成 AI モデルは、人間の効果的なコミュニケーションの基盤を混乱させます。
これらはコンテキストの信頼性に新たな課題をもたらし、参加者がコミュニケーションの本物のコンテキストを識別する能力や、意図されたコンテキスト外での再利用や組み換えからコミュニケーションを保護する能力を混乱させます。
このホワイトペーパーでは、これらの課題に直面してコミュニケーションを安定させることを目的とした戦略 (ツール、テクノロジー、ポリシー) について説明します。
ここで説明する戦略は、大きく 2 つのカテゴリに分類されます。
封じ込め戦略は、現在脅威にさらされている環境でコンテキストを再確認すること、つまりインターネットによって確立されたコンテキストのない期待や規範への反応を目的としています。
対照的に、モバイル化戦略では、生成型 AI の台頭は、媒介コミュニケーションにおけるプライバシーと信頼性に関して、新たなより高い期待を積極的に設定する機会と見なされます。

要約(オリジナル)

Generative AI models perturb the foundations of effective human communication. They present new challenges to contextual confidence, disrupting participants’ ability to identify the authentic context of communication and their ability to protect communication from reuse and recombination outside its intended context. In this paper, we describe strategies–tools, technologies and policies–that aim to stabilize communication in the face of these challenges. The strategies we discuss fall into two broad categories. Containment strategies aim to reassert context in environments where it is currently threatened–a reaction to the context-free expectations and norms established by the internet. Mobilization strategies, by contrast, view the rise of generative AI as an opportunity to proactively set new and higher expectations around privacy and authenticity in mediated communication.

arxiv情報

著者 Shrey Jain,Zoë Hitzig,Pamela Mishkin
発行日 2023-11-02 12:39:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク