要約
AI システムがますます多くの社会領域に参入するにつれて、これらのシステムはますますユーザーの好み、意見、行動によって形成され、形成されています。
ただし、AI システムの設計では、AI とユーザーが相互にどのように形成されるかを考慮することはほとんどありません。
このポジションペーパーでは、AI とユーザーが相互にどのように形成されるかを数学的に指定する形式的な相互作用モデルの開発を主張します。
正式な相互作用モデルは、(1) 実装のための相互作用の指定、(2) 実証分析による相互作用の監視、(3) 反事実分析による社会的影響の予測、(4) 介入による社会的影響の制御に活用できます。
形式的相互作用モデルの設計空間は広大であり、モデルの設計では、スタイル、粒度、数学的複雑さ、測定可能性などの要素を慎重に考慮する必要があります。
コンテンツ推奨システムをケーススタディとして使用し、これらのユースケースと設計軸に関して形式的インタラクション モデルの初期の文献を批判的に調査します。
より広範には、ユーザーと対話する AI システムを設計、評価、または監査する際に、形式的な対話モデルを活用することをコミュニティに呼びかけます。
要約(オリジナル)
As AI systems enter into a growing number of societal domains, these systems increasingly shape and are shaped by user preferences, opinions, and behaviors. However, the design of AI systems rarely accounts for how AI and users shape one another. In this position paper, we argue for the development of formal interaction models which mathematically specify how AI and users shape one another. Formal interaction models can be leveraged to (1) specify interactions for implementation, (2) monitor interactions through empirical analysis, (3) anticipate societal impacts via counterfactual analysis, and (4) control societal impacts via interventions. The design space of formal interaction models is vast, and model design requires careful consideration of factors such as style, granularity, mathematical complexity, and measurability. Using content recommender systems as a case study, we critically examine the nascent literature of formal interaction models with respect to these use-cases and design axes. More broadly, we call for the community to leverage formal interaction models when designing, evaluating, or auditing any AI system which interacts with users.
arxiv情報
著者 | Sarah Dean,Evan Dong,Meena Jagadeesan,Liu Leqi |
発行日 | 2024-04-18 17:49:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google