Can Probabilistic Feedback Drive User Impacts in Online Platforms?

要約

コンテンツ推奨システムがユーザーに悪影響を与える一般的な説明は、プラットフォームの目的とユーザー福祉の間の不一致です。
この研究では、プラットフォームの目的の不一致が、ユーザーへの意図しない影響の潜在的な唯一の原因ではないことを示しています。プラットフォームの目的がユーザーの福祉と完全に一致している場合でも、プラットフォームの学習アルゴリズムは、下流でユーザーにマイナスの影響を引き起こす可能性があります。
こうしたユーザーへの影響の原因は、コンテンツが異なれば、観察可能なユーザーの反応 (フィードバック情報) が異なる割合で生成される可能性があることです。
これらのフィードバック率は、物議を醸す可能性や作成者の人口統計上の類似性など、ユーザー エクスペリエンスに影響を与えるコンテンツの特性と相関する可能性があります。
フィードバック率の違いは、学習アルゴリズムがさまざまなコンテンツに関与する頻度に影響を与える可能性があるため、学習アルゴリズムがそのような特定の特性を持つコンテンツを誤って宣伝する可能性があります。
確率的フィードバックを備えたマルチアーム バンディット フレームワークを使用して、さまざまなノーリグレット アルゴリズムについて、フィードバック レートと学習アルゴリズムの個々のアームへの関与との関係を調べます。
我々は、ノーリグレット アルゴリズムが幅広い依存関係を示す可能性があることを証明します。アームのフィードバック レートが増加すると、一部のノーリグレット アルゴリズムはアームとの関与が増加し、一部のノーリグレット アルゴリズムはアームとの関与が減少し、他のノーリグレット アルゴリズムはアームへの関与が減少します。
リグレットアルゴリズムは、ほぼ同じ回数アームと関わります。
プラットフォーム設計の観点から見ると、私たちの結果は、アルゴリズムのパフォーマンスを測定する際に後悔の先を見据え、さまざまな種類のコンテンツと学習アルゴリズムの関与の性質、およびその結果として生じる下流への影響を評価することの重要性を強調しています。

要約(オリジナル)

A common explanation for negative user impacts of content recommender systems is misalignment between the platform’s objective and user welfare. In this work, we show that misalignment in the platform’s objective is not the only potential cause of unintended impacts on users: even when the platform’s objective is fully aligned with user welfare, the platform’s learning algorithm can induce negative downstream impacts on users. The source of these user impacts is that different pieces of content may generate observable user reactions (feedback information) at different rates; these feedback rates may correlate with content properties, such as controversiality or demographic similarity of the creator, that affect the user experience. Since differences in feedback rates can impact how often the learning algorithm engages with different content, the learning algorithm may inadvertently promote content with certain such properties. Using the multi-armed bandit framework with probabilistic feedback, we examine the relationship between feedback rates and a learning algorithm’s engagement with individual arms for different no-regret algorithms. We prove that no-regret algorithms can exhibit a wide range of dependencies: if the feedback rate of an arm increases, some no-regret algorithms engage with the arm more, some no-regret algorithms engage with the arm less, and other no-regret algorithms engage with the arm approximately the same number of times. From a platform design perspective, our results highlight the importance of looking beyond regret when measuring an algorithm’s performance, and assessing the nature of a learning algorithm’s engagement with different types of content as well as their resulting downstream impacts.

arxiv情報

著者 Jessica Dai,Bailey Flanigan,Nika Haghtalab,Meena Jagadeesan,Chara Podimata
発行日 2024-01-10 18:12:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク