Uncovering Bias in Personal Informatics

要約

スマートフォンやウェアラブルを活用した個人情報学 (PI) システムは、ユーザーと健康情報の間の障壁を打ち破る有意義で実用的な洞察を提供することで、人々がより健康的なライフスタイルを送れるようにします。
今日、このようなシステムは、身体活動や睡眠だけでなく、バ​​イタルサイン、女性や心臓の健康などを監視するために何十億ものユーザーによって使用されています。
広く使用されているにもかかわらず、機密性の高い PI データの処理にはバイアスがかかる可能性があり、実際的および倫理的な影響を伴う可能性があります。
この研究では、生データおよび機械学習ライフサイクル全体におけるバイアスを含む、PI システムのバイアスに関する最初の包括的な実証的および分析的研究を紹介します。
私たちはこれまでで最も詳細なフレームワークを使用してさまざまなバイアスの原因を調査し、データ生成とモデルの学習および実装ストリームの両方にバイアスが存在することを発見しました。
私たちの結果によると、最も影響を受ける少数派グループは、糖尿病、関節の問題、高血圧などの健康上の問題を抱えているユーザーと女性ユーザーであり、そのデータバイアスは学習モデルによって伝播または増幅され、交差バイアスも観察される可能性があります。

要約(オリジナル)

Personal informatics (PI) systems, powered by smartphones and wearables, enable people to lead healthier lifestyles by providing meaningful and actionable insights that break down barriers between users and their health information. Today, such systems are used by billions of users for monitoring not only physical activity and sleep but also vital signs and women’s and heart health, among others. Despite their widespread usage, the processing of sensitive PI data may suffer from biases, which may entail practical and ethical implications. In this work, we present the first comprehensive empirical and analytical study of bias in PI systems, including biases in raw data and in the entire machine learning life cycle. We use the most detailed framework to date for exploring the different sources of bias and find that biases exist both in the data generation and the model learning and implementation streams. According to our results, the most affected minority groups are users with health issues, such as diabetes, joint issues, and hypertension, and female users, whose data biases are propagated or even amplified by learning models, while intersectional biases can also be observed.

arxiv情報

著者 Sofia Yfantidou,Pavlos Sermpezis,Athena Vakali,Ricardo Baeza-Yates
発行日 2023-07-19 15:16:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク